Die KI-Kriege heizen sich auf. Ende 2022 sorgte Chat GPT von Open AI für Schlagzeilen, weil er uns zeigte, wie eine neue Suchmaschine aussehen könnte. ChatGPT (steht für „Generative Pre-trained Transformer“) ist ein Chatbot, der Anfragen bearbeiten und relevante Informationen ausspucken kann, um Fragen zu historischen Fakten, Rezepten, Fahrzeugabmessungen und vielem mehr zu beantworten. Als Bonus kann man mit ChatGPT Fragen in einfachem Englisch formulieren, sodass man nicht gezwungen ist, Fragen wie „wie man verhindert, dass Hunde überall kacken, Reddit“ zu stellen. Das Ergebnis ist im Wesentlichen ein Suchfeld, mit dem Sie Nachrichten hin und her senden können. Es lässt die Google-Suche fast ein wenig primitiv aussehen. Microsoft, der Hersteller von Bing und größter Investor in Open AI, ist damit einverstanden.

ChatGPT und die neueste Version, GPT-4, bietet gründliche Antworten – er kann sogar Ihren Code schreiben, Ihr Anschreiben verfassen und Ihre juristische Prüfung bestehen. Er gibt manchmal auch völlig falsche Antworten. Es ist besorgniserregend, wie inbrünstig sicher ChatGPT ungenaue Informationen präsentiert. Das hat Nachrichtenredaktionen nicht davon abgehalten, zu überdenken, wie viele Redakteure sie einstellen, oder Professoren davon, sich gegen den Chatbot zu stellen. (Doch nicht alle Professoren. Einige begrüßen die Veränderung.)

Die Aufregung um künstliche Intelligenz ist alles andere als künstlich. Zumindest für manche. College-Professoren oder Job-Recruiter sind kaum begeistert, menschliche Wörter von Chatbot-Geschwätz unterscheiden zu müssen. Branchenexperten sind kaum begeistert von einer potenziellen Welle von Fehlinformationen und unterzeichnen einen offenen Brief, der vor dem Potenzial der KI warnt, „unsere Informationskanäle mit Propaganda und Unwahrheit zu überfluten.“ Diejenigen, die unterschrieben haben, sagen: „Solche Entscheidungen dürfen nicht an nicht gewählte Technologieführer delegiert werden.“ Themen wie diese will Mozilla mit der Responsible Computing Challenge angehen und sicherstellen, dass Hochschulprogramme die politischen und gesellschaftlichen Auswirkungen von Technologie hervorheben. Und auch mit Mozilla.ai, einem Startup mit der Mission, es einfach zu machen, KI zu erstellen, die Open Source und ethisch ist.

Wenn wir diese schöne neue Welt betreten, in der sogar die Snapchat-Nachricht eines Freundes KI-geschrieben sein könnte, möchten Sie vielleicht etwas mehr über die Fähigkeiten und Einschränkungen von Chatbots erfahren. Können Sie einen Absatz erkennen, der von AI geschrieben wurde? Können Sie feststellen, ob Ihr Kollege Ihnen tatsächlich antwortet oder ob es nicht ChatGPT ist? Wissen Sie, wie man Fehlinformationen in Antworten eines Chatbots erkennt, weil das ChatGPT-infundierte Bing durchaus immer noch Fakten manchmal falsch hinbekommt? Es ist nicht immer möglich, zu wissen, ob eine KI eine Version geschrieben hat, aber manchmal können Sie Sprache erkennen, die von Chat GPT und anderen Bots geschrieben wurde, indem Sie ein Detektortool verwenden und auf unbeholfene Sprache achten. Lesen Sie weiter, um zu erfahren, wie.

Wie erkennen Sie selbst ChatGPT-Text?

Sie können von Chat-GPT geschriebenen Text mit Online-Tools wie OpenAI API Key erkennen. Das Tool stammt von Open AI selbst, dem Unternehmen, das Chat GPT hergestellt hat. Es ist erwähnenswert, dass die App nicht perfekt ist. Open AI sagt, dass das Tool mindestens 1.000 Wörter benötigt, bevor es KI-generierte Inhalte ausfindig machen kann, so dass etwa eine KI-generierte Textnachricht unter seinem Radar fliegen kann. Auch wenn es die 1.000 Wörter bekommt, die es braucht, ist es nicht immer 100 % genau, KI im Vergleich zu menschengeschriebener Sprache zu erkennen. KI-erstellter Text, der von einem Menschen bearbeitet wurde, kann das Tool ebenfalls täuschen.

(Update: Stand Juli 2023 beinhaltet ein neues ChatGPT-Update nicht mehr die Verwendung des KI-Klassifizierers, der von Open AI verwendet wurde, um KI-generierten Text zu erkennen. Seit Anfang 2024 hat das Unternehmen das Original-Werkzeug sogar aus dem Internet genommen. Das Unternehmen behauptet, an neuen, effektiveren Möglichkeiten zu arbeiten, um KI-generierten Text sowie KI-generierte Audio und Video zu erkennen.)

Das Open AI-Tool ist vielleicht nicht perfekt, doch es gibt auch andere Angebote in der ChatGPT-Text-Erkennungswelt. Der Medium-Blog Geek Culture listet andere Optionen auf, die von Leuten in Princeton und Stanford entwickelt wurden. Wenn es von entscheidender Bedeutung ist, zu wissen, ob Text von einem Bot oder einem Menschen geschrieben wurde, kann das Testen mit mehreren Tools hilfreich sein. ChatGPT ändert sich schnell, sodass die Leistung variieren kann.

ChatGPT-Text erkennen: Die Vorbehalte

Es ist wichtig zu betonen, dass keine Methode zur Erkennung von KI-geschriebenem Text narrensicher ist – dies schließt Optionen ein, die heute verfügbare Tools verwenden. Jesse McCrosky ist Datenwissenschaftler bei der Mozilla Foundation und warnt vor den Beschränkungen der KI-Texterkennungswerkzeuge. „Detektortools werden immer unvollkommen sein, was sie für die meisten Anwendungen fast nutzlos macht“, sagt McCrosky. „Man kann einem Schüler oder Studenten nicht vorwerfen, KI zu verwenden, um seinen Aufsatz auf der Grundlage der Ausgabe eines Detektortools zu schreiben, von dem Sie wissen, dass es eine Chance von 10 % hat, ein falsches Positiv zu geben.“

Laut McCrosky kann es unmöglich sein, jemals einen echten KI-Detektor zu haben, da es für Software immer möglich sein wird, „nicht nachweisbare“ Texte zu schreiben oder Texte mit der spezifischen Absicht zu erstellen, diese Art von Detektoren zu umgehen. Und dann ist da noch die Tatsache, dass sich die uns zur Verfügung stehenden KI-Tools ständig verbessern. „Es kann ein gewisses 'Wettrüsten' zwischen Chat GPT-Textdetektoren und Detektor-Evadern geben, aber es wird nie eine Situation geben, in der man Detektoren vertrauen kann“, sagt McCrosky.

Wie erkennt man Fehlinformationen innerhalb von ChatGPT?

Es ist kein Geheimnis, dass ChatGPT Fehlinformationen und Desinformationen verbreiten kann (und verbreitet hat). Microsoft verwendet möglicherweise Tools wie die von NewsGuard, um die irreführenden Antworten seiner KI zu begrenzen, aber das Problem ist immer noch besorgniserregend. The Poynter Institute hat unsere Lieblingstipps, um Fehlinformationen innerhalb von Chat GPT zu erkennen: 1) auf Muster und Unstimmigkeiten zu überprüfen, 2) nach Anzeichen von menschlichem Versagen zu suchen und den Kontext zu überprüfen. Wenn eine ChatGPT-Antwort etwas mehrmals wiederholt, seltsame Fehler hat, die eine Person nicht machen würde, oder etwas sagt, das im Kontext dessen, was Sie lesen, keinen Sinn macht, könnten Sie gerade irreführende Inhalte lesen. Überprüfen Sie die Quelllinks am Ende Ihrer Chat-GPT-Antworten und stellen Sie sicher, dass Sie Ihre eigenen Recherchen auch außerhalb von ChatGPT durchführen. Betrachten Sie es als Ausgangspunkt und nicht als das letzte Wort.

Chat GPT macht Spaß, aber Vorsicht

ChatGPT bietet einen interessanten Einblick in eine Welt voller Chatbot-Antworten, aber er dient auch als Warnung vor den Nachteilen. Mit großer Intelligenz geht eine große Verantwortung einher. Während Bing und ChatGPT (und Sydney?) lernen, wie man ein besserer Chatbot wird, müssen wir als Benutzer weiterhin ChatGPT-Erkennungstools verwenden, um zu überprüfen, ob die Wörter, die wir sehen, von Menschen gemacht sind und ob die Fakten, die wir teilen, wirklich auf Tatsachen beruhen.


Hat Chat GPT dies geschrieben? Hier erfahren Sie, wie man es erkennt

Geschrieben von: Xavier Harding

Bearbeitet von: Ashley Boyd, Audrey Hingle, Carys Afoko, Innocent Nwani

SEO-Einblick: Aslam Shaffraz


Verwandte Inhalte