Suchir Balaji, ein ehemaliger Forscher für künstliche Intelligenz (KI) bei OpenAI, wurde tot in seiner Wohnung in San Francisco aufgefunden. Berichten zufolge starb der 26-Jährige durch Selbstmord.
„Während der ersten Ermittlungen wurden keine Hinweise auf ein Verbrechen gefunden“, sagte Officer Robert Rueca, ein Sprecher der San Francisco Police Department Forbes.
Entsprechend Die Mercury NewsBalaji wurde am 26. November tot in seiner Wohnung in der Buchanan Street aufgefunden.
Seinen Angaben zufolge arbeitete er von November 2020 bis August 2024 für OpenAI LinkedIn-Profil.
Der Milliardär Elon Musk, der eine langjährige Fehde mit OpenAI-CEO Sam Altman hat, reagierte auf die Nachricht mit einem kryptischen „hmm“-Beitrag auf X (ehemals Twitter).
— Elon Musk (@elonmusk) 14. Dezember 2024
OpenAI wurde 2015 von Elon Musk und Sam Altman gemeinsam gegründet. Drei Jahre später verließ Musk OpenAI und gründete ein weiteres konkurrierendes Start-up, xAI.
Letzten Monat behauptete Musk das OpenAI ist ein Monopolist.
Suchir Balaji sagte, OpenAI habe gegen das Urheberrecht verstoßen
Im Oktober hatte Suchir Balaji behauptet, OpenAI verstoße gegen das Urheberrecht.
„Wenn Sie glauben, was ich glaube, müssen Sie das Unternehmen einfach verlassen“, sagte er in einem Interview mit Die New York Times.
Er sagte auch, dass Technologien wie ChatGPT dem Internet schaden würden.
In einem Social-Media-Beitrag auf X im Oktober hatte Balaji auch über Fair Use und generative KI geschrieben.
Balaji sprach über seine vierjährige Arbeit bei OpenAI, einschließlich seiner anderthalbjährigen Arbeit an ChatGPT, und kam zu dem Schluss, dass „faire Nutzung eine ziemlich unplausible Verteidigung für viele generative KI-Produkte zu sein scheint.“
„Anfangs wusste ich nicht viel über Urheberrecht, faire Nutzung usw., wurde aber neugierig, nachdem ich all die Klagen gesehen hatte, die gegen GenAI-Unternehmen eingereicht wurden. Als ich versuchte, das Problem besser zu verstehen, kam ich schließlich zu dem Schluss, dass Fair Use für viele generative KI-Produkte eine ziemlich unplausible Verteidigung zu sein scheint, und zwar aus dem Hauptgrund, dass sie Ersatzprodukte schaffen können, die mit den trainierten Daten konkurrieren on (sic)“, schrieb er.
Ich habe kürzlich an einer NYT-Story über faire Nutzung und generative KI teilgenommen und warum ich skeptisch bin, dass „faire Nutzung“ eine plausible Verteidigung für viele generative KI-Produkte wäre. Ich habe auch einen Blogbeitrag geschrieben (https://t.co/xhiVyCk2Vk) über die Einzelheiten der fairen Nutzung und warum ich…
— Suchir Balaji (@suchirbalaji) 23. Oktober 2024
In einem BlogbeitragBalaji erläuterte die vier Faktoren, die bestimmen, ob generative KI für eine faire Nutzung geeignet ist oder nicht. Zu den vier Faktoren gehört die „Auswirkung der Nutzung auf den potenziellen Markt oder Wert des urheberrechtlich geschützten Werks“.
Der Fair-Use-Test untersucht auch den Zweck und die Art der Nutzung sowie die Art des urheberrechtlich geschützten Werks – unabhängig davon, ob es sich um ein kreatives Werk handelt, das in hohem Maße urheberrechtlich geschützt ist, oder um ein Sachwerk.
Balaji kam zu dem Schluss: „Keiner der vier Faktoren scheint dafür zu sprechen, dass ChatGPT seine Trainingsdaten fair nutzt. Abgesehen davon ist auch keines der Argumente hier grundsätzlich spezifisch für ChatGPT, und ähnliche Argumente könnten für viele generative KI-Produkte in einer Vielzahl von Bereichen vorgebracht werden.“