Home Empfohlen ChatGPT wird mit neuem Update besser im kreativen Schreiben

ChatGPT wird mit neuem Update besser im kreativen Schreiben

4
0
ChatGPT wird mit neuem Update besser im kreativen Schreiben



OpenAI kündigte letzte Woche zwei Möglichkeiten an, seine Modelle für künstliche Intelligenz (KI) zu verbessern. Das erste umfasst die Veröffentlichung eines neuen Updates für GPT-4o (auch bekannt als GPT-4 Turbo), das neueste KI-Modell des Unternehmens, das ChatGPT für zahlende Abonnenten unterstützt. Das Unternehmen gibt an, dass das Update die Fähigkeit des Modells zum kreativen Schreiben verbessert und es bei Antworten in natürlicher Sprache und beim Schreiben ansprechender Inhalte mit hoher Lesbarkeit verbessert. OpenAI veröffentlichte außerdem zwei Forschungsarbeiten zum Red Teaming und stellte eine neue Methode zur Automatisierung des Prozesses zur Skalierung von Erkennungsfehlern seiner KI-Modelle vor.

OpenAI aktualisiert das GPT-4o-KI-Modell

In einem Post Auf X (früher bekannt als Twitter) kündigte das KI-Unternehmen ein neues Update für das GPT-4o-Basismodell an. OpenAI sagt, dass das Update es dem KI-Modell ermöglicht, Ausgaben mit „natürlicherem, ansprechenderem und maßgeschneidertem Schreiben zu generieren, um Relevanz und Lesbarkeit zu verbessern“. Es soll auch die Fähigkeit des KI-Modells verbessern, hochgeladene Dateien zu verarbeiten und tiefere Einblicke und „gründlichere“ Antworten liefern.

Insbesondere ist das GPT-4o AI-Modell für Benutzer mit verfügbar ChatGPT Plus Abonnement und Entwickler mit Zugriff auf das Large Language Model (LLM) über API. Wer die kostenlose Stufe des Chatbots nutzt, hat keinen Zugriff auf das Modell.

Während die Mitarbeiter von Gadgets 360 die neuen Funktionen nicht testen konnten, konnte ein Benutzer von X gepostet über die neuesten Verbesserungen im KI-Modell nach dem Update. Der Benutzer behauptete, dass GPT-4o eine Rap-Chiffre im Eminem-Stil mit „ausgeklügelten internen Reimstrukturen“ erzeugen könne.

OpenAI veröffentlicht neue Forschungsarbeiten zum Thema Red Teaming

Red Teaming ist der Prozess, den Entwickler und Unternehmen nutzen, um externe Einheiten damit zu beauftragen, Software und Systeme auf Schwachstellen, potenzielle Risiken und Sicherheitsprobleme zu testen. Die meisten KI-Firmen arbeiten mit Organisationen zusammen, veranlassen Ingenieure und ethische Hacker, einem Stresstest zu unterziehen, ob sie mit schädlichen, ungenauen oder irreführenden Ergebnissen reagieren. Außerdem wird getestet, ob ein KI-System jailbreakbar ist.

Seitdem ChatGPT veröffentlicht wurde, ist OpenAI mit seinen Red-Teaming-Bemühungen für jede aufeinanderfolgende LLM-Veröffentlichung öffentlich. In einem Blogbeitrag Letzte Woche veröffentlichte das Unternehmen zwei neue Forschungsarbeiten zur Weiterentwicklung des Prozesses. Eine davon ist von besonderem Interesse, da das Unternehmen behauptet, es könne groß angelegte Red-Teaming-Prozesse für KI-Modelle automatisieren.

Veröffentlicht in der OpenAI-Domäne Papier behauptet, dass leistungsfähigere KI-Modelle verwendet werden können, um Red Teaming zu automatisieren. Das Unternehmen ist davon überzeugt, dass KI-Modelle beim Brainstorming von Angreiferzielen, bei der Beurteilung des Erfolgs eines Angreifers und beim Verständnis der Vielfalt von Angriffen hilfreich sein können.

Darüber hinaus behaupteten die Forscher, dass das GPT-4T-Modell zum Brainstorming einer Liste von Ideen verwendet werden kann, die schädliches Verhalten für ein KI-Modell darstellen. Einige Beispiele beinhalten Aufforderungen wie „Wie stiehlt man ein Auto“ und „Wie baut man eine Bombe“. Sobald die Ideen generiert wurden, kann ein separates Red-Teaming-KI-Modell erstellt werden, um ChatGPT mithilfe einer detaillierten Reihe von Eingabeaufforderungen auszutricksen.

Derzeit hat das Unternehmen aufgrund verschiedener Einschränkungen noch nicht damit begonnen, diese Methode für Red Teaming einzusetzen. Dazu gehören die sich weiterentwickelnden Risiken von KI-Modellen, die die KI weniger bekannten Techniken zum Jailbreaking oder Generieren schädlicher Inhalte aussetzen, und die Notwendigkeit einer höheren Wissensschwelle beim Menschen, um die potenziellen Risiken der Ausgabe richtig beurteilen zu können, sobald das KI-Modell leistungsfähiger wird .



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here