Hi! Nutzt ihr ChatGPT oder andere Natural Language Processing Werkzeuge in der Firma? Wenn ja, wie? Wie handhabt ihr den Punkt Informationssicherheit?
Nein. Bei uns ist es eyplizit verboten und auch weitgehend per Proxy gesperrt. Ich persönlich empfinde das auch als die richtige Entscheidung.
Warum?
Abhängig von der Größe des Unternehmens kann es schwierig werden, zu verhindern, dass da jemand den Source Code reinhackt und sich z. B. Unit-Tests dafür wünscht. Das ist ein ziemliches Sicherheitsrisiko.
Ein prinzipiellen Blocken finde ich okay bis man einen guten Weg für den Umgang mit ChatGPT gefunden hat und es eingeschränkt erlaubt.
Es ist ein Sicherheitsrisiko wenn der source code geleaked werden würde dadurch? Security through obscurity?
Was hat das mit Security through obscurity zu tun? Wer Source code seines Unternehmens unerlaubt an Dritte verbreitet, macht sich wohl des Vertragsbruches strafbar. Es würde mich wundern, wenn es Arbeitsverträge ohne Klausel zu geistigem Eigentum von Firmen gibt.
Du hattest geschrieben es wäre ein Sicherheitsrisiko. Das hatte ich als Sicherheitslücken in der Software interpretiert.
Dann haben wir uns da missverstanden. :)
Gegenfrage: gibt es bei OpenAI inzwischen Business Verträge die sicherstellen das Informationen aus Konversationen nicht ins Training des Modells einfließen oder sonstwo geteilt werden?
einer der Hauptblocker weshalb das bei uns niemand nutzt (neben den Halluzinationen) ist eben das wir keine Firmengeheimnisse oder sensitiven Kundendaten an andere Firmen leaken wollen.
Bei der Nutzung über Azure gibt es keinen Rückfluss der Daten ins Modell. Zumindest haben auf der Basis unsere Data Privacy und Data Security Leute den Testbetrieb freigegeben.
https://azure.microsoft.com/de-de/products/cognitive-services/openai-service
interessant, dh. die hosten quasi ein eigenes Modell für dich?
Naja, zumindest behauptet das MS auf seiner Webseite dazu.
hast du da einen Link zu? bisher ist alles was ich dazu lesen konnte eine Absichtserklärung dass das irgendwann kommen soll.
https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy
Is customer data processed by Azure OpenAI sent to OpenAI? No. Microsoft hosts the OpenAI models within our Azure infrastructure, and all customer data sent to Azure OpenAI remains within the Azure OpenAI service.
Is customer data used to train the OpenAI models? No. We do not use customer data to train, retrain or improve the models in the Azure OpenAI Service.
Ich verwende teilweise ChatGPT über meinen privaten Account. Es hilft hie und da beim programmieren. Die Informationssicherheit spielt in meinem Unternehmen leider kaum eine Rolle. Habe schon mehrfach auf solche Themen hingewiesen, aber es bringt halt kein Geld. Allerdings sind wir jetzt auch nicht gerade in einem kritischen Umfeld. Fände es mal spannend wie das die grösseren Player so handhaben mit AI.
Im Großkonzern gab’s gleich am Anfang der ChatGPT-Welle einen Arbeitskreis, der dann in einer großen Ausarbeitungsrunde mit Abstimmungen in der Führungsetage ein PDF mit sogenannten “Ethischen Richtlinien” produziert und an alle Mitarbeiter geschickt hat. Die inhaltliche Kurzfassung dieser ist in etwa wie folgt:
Bau keinen Scheiss in der Öffentlichkeit dort.
Ich würde mir mal wünschen, sowas als on premise Lösung xu haben.
Beim Programmieren gibt’s so viel repetitive Aufgaben, da würde es echt helfen.
deleted by creator
Wie ist deine Erfahrung mit dem Kopiloten?
Jein. Wir verwenden ChatGPT nicht offiziell. Es wird toleriert, solange wir keine persönlichen Daten eingeben.
Was wir aber sehr intensiv nutzen, ist deepl.com/write, um Texte zu korrigieren.
Nein, wir haben vorerst auf GPT4ALL umgestellt. Ist auch völlig ausreichend mit Snoozy. Und wir haben alle unsere eigene Kopie in einer offline VM.