Germany
This article was added by the user . TheWorldNews is not responsible for the content of the platform.

Versuch der Schadensbegrenzung: ChatGPT-Entwickler wollen Computertexte rausfiltern

Versuch der Schadensbegrenzung ChatGPT-Entwickler wollen Computertexte rausfiltern

393433796.jpg

Die Software ChatGPT kann die Arbeit erleichtern - es aber auch leichter machen, zu betrügen.

(Foto: picture alliance / ZUMAPRESS.com)

Die Software ChatGPT verursacht derzeit viel Aufruhr. Denn sie ist in der Lage, Texte so gut zu formulieren, dass sie teils nur schwer von denen zu unterscheiden sind, die Menschen verfasst haben. Das erleichtert Betrug. Nun versuchen die ChatGPT-Erfinder, den möglichen Schaden zu begrenzen.

Die Macher der schreibenden Software ChatGPT versuchen nun, die Folgen ihrer Erfindung in den Griff zu bekommen. Die Entwicklerfirma OpenAI veröffentlichte ein Programm, das unterscheiden soll, ob ein Text von einem Menschen oder einem Computer geschrieben wurde. ChatGPT kann menschliche Sprache so gut nachahmen, dass es unter anderem Sorgen gibt, damit könnte bei Schul- und Studienarbeiten geschummelt oder im großen Stil Desinformations-Kampagnen erstellt werden.

Noch funktioniert die Erkennung eher mittelmäßig, wie OpenAI in einem Blogeintrag am Dienstag einräumte. In Testläufen habe die Software in 26 Prozent der Fälle korrekt von einem Computer geschriebene Texte identifiziert. Zugleich seien aber auch neun Prozent der von Menschen formulierten Texte fälschlicherweise einer Maschine zugeordnet worden. Deshalb empfehle man vorerst, sich bei der Bewertung der Texte nicht hauptsächlich auf die Einschätzung des "Classifiers" zu verlassen.

Software-Training mit riesigen Datenmengen

ChatGPT ist eine Software auf Basis künstlicher Intelligenz, die auf gewaltigen Mengen von Texten und Daten trainiert wurde, menschliche Sprache nachzuahmen. Zugleich kann das Programm überzeugend völlig falsche Angaben zwischen korrekte Informationen mischen. OpenAI machte ChatGPT im vergangenen Jahr öffentlich zugänglich und löste damit Bewunderung für die Fähigkeiten der Software und die Sorge vor Betrug aus.

Google entwickelt ebenfalls seit Jahren Software, die wie ein Mensch schreiben und sprechen kann, sah bisher aber vor einer Veröffentlichung ab. Nun lasse der Internet-Konzern aber Mitarbeiter einen Chatbot testen, der ähnlich wie ChatGPT funktioniere, berichtete der Sender CNBC in der Nacht zum Mittwoch. In einer internen E-Mail heiße es, dass eine Antwort auf ChatGPT Priorität habe. Google experimentiere auch mit einer Version seiner Internet-Suchmaschine, die mit Fragen und Antworten arbeite.