Hi! Nutzt ihr ChatGPT oder andere Natural Language Processing Werkzeuge in der Firma? Wenn ja, wie? Wie handhabt ihr den Punkt Informationssicherheit?

  • muffinmaster1024@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    5
    ·
    1 year ago

    Nein. Bei uns ist es eyplizit verboten und auch weitgehend per Proxy gesperrt. Ich persönlich empfinde das auch als die richtige Entscheidung.

      • Odiousmachine@feddit.de
        link
        fedilink
        Deutsch
        arrow-up
        2
        ·
        1 year ago

        Abhängig von der Größe des Unternehmens kann es schwierig werden, zu verhindern, dass da jemand den Source Code reinhackt und sich z. B. Unit-Tests dafür wünscht. Das ist ein ziemliches Sicherheitsrisiko.

        Ein prinzipiellen Blocken finde ich okay bis man einen guten Weg für den Umgang mit ChatGPT gefunden hat und es eingeschränkt erlaubt.

        • coltzero@feddit.de
          link
          fedilink
          Deutsch
          arrow-up
          2
          arrow-down
          1
          ·
          1 year ago

          Es ist ein Sicherheitsrisiko wenn der source code geleaked werden würde dadurch? Security through obscurity?

          • Odiousmachine@feddit.de
            link
            fedilink
            Deutsch
            arrow-up
            2
            ·
            1 year ago

            Was hat das mit Security through obscurity zu tun? Wer Source code seines Unternehmens unerlaubt an Dritte verbreitet, macht sich wohl des Vertragsbruches strafbar. Es würde mich wundern, wenn es Arbeitsverträge ohne Klausel zu geistigem Eigentum von Firmen gibt.

  • driest@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    3
    ·
    1 year ago

    Gegenfrage: gibt es bei OpenAI inzwischen Business Verträge die sicherstellen das Informationen aus Konversationen nicht ins Training des Modells einfließen oder sonstwo geteilt werden?

    einer der Hauptblocker weshalb das bei uns niemand nutzt (neben den Halluzinationen) ist eben das wir keine Firmengeheimnisse oder sensitiven Kundendaten an andere Firmen leaken wollen.

  • sasquash471@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    2
    ·
    1 year ago

    Ich verwende teilweise ChatGPT über meinen privaten Account. Es hilft hie und da beim programmieren. Die Informationssicherheit spielt in meinem Unternehmen leider kaum eine Rolle. Habe schon mehrfach auf solche Themen hingewiesen, aber es bringt halt kein Geld. Allerdings sind wir jetzt auch nicht gerade in einem kritischen Umfeld. Fände es mal spannend wie das die grösseren Player so handhaben mit AI.

    • waka@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      1
      ·
      1 year ago

      Im Großkonzern gab’s gleich am Anfang der ChatGPT-Welle einen Arbeitskreis, der dann in einer großen Ausarbeitungsrunde mit Abstimmungen in der Führungsetage ein PDF mit sogenannten “Ethischen Richtlinien” produziert und an alle Mitarbeiter geschickt hat. Die inhaltliche Kurzfassung dieser ist in etwa wie folgt:

      Bau keinen Scheiss in der Öffentlichkeit dort.

    • AggressivelyPassive@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      1
      ·
      1 year ago

      Ich würde mir mal wünschen, sowas als on premise Lösung xu haben.

      Beim Programmieren gibt’s so viel repetitive Aufgaben, da würde es echt helfen.

  • nvts@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    1
    ·
    1 year ago

    Jein. Wir verwenden ChatGPT nicht offiziell. Es wird toleriert, solange wir keine persönlichen Daten eingeben.

    Was wir aber sehr intensiv nutzen, ist deepl.com/write, um Texte zu korrigieren.

  • Katzenha@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    1
    ·
    1 year ago

    Nein, wir haben vorerst auf GPT4ALL umgestellt. Ist auch völlig ausreichend mit Snoozy. Und wir haben alle unsere eigene Kopie in einer offline VM.