Entwickeltes Tool zur Erkennung von Texten mit künstlicher Intelligenz; „Noch nicht ganz sicher“
OpenAI, Entwickler des künstlichen Intelligenzprogramms ChatGPT, kündigte an, ein Tool entwickelt zu haben, das erkennen soll, ob Texte mit künstlicher Intelligenz geschrieben wurden. Auf der anderen Seite erklärte das Unternehmen, dass das Fahrzeug jetzt nicht vollständig sicher sei.
Während die künstliche Intelligenz ChatGBT, die Fragen beantworten und Texte produzieren kann, laut den Nachrichten in The Guardian in vielen Bereichen, insbesondere in der Akademie, für Fragezeichen sorgt, hat der Softwaredesigner OpenAI ein Tool vorbereitet, das feststellen kann, ob der Text geschrieben ist durch menschliche oder künstliche Intelligenz.
Obwohl OpenAI nun feststellt, dass die diskriminierende Software nicht vollständig sicher ist, wurde festgestellt, dass das Tool in der Wissenschaft nützlich sein könnte.
ChatGPT ist ein wichtiges Sprachmodell, das eine Variation der GPT-Architektur (Generative Pre-Training Transformer) verwendet, um menschenähnlichen Text zu generieren. Der auf verschiedene Internettexte trainierte Chatbot kann auf verschiedenste Kommandos kostengünstige Antworten produzieren. Das Modell kann für verschiedene Aufgaben wie Sprachübersetzung, Fragenbeantwortung und Sprechen fein abgestimmt werden. ChatGBT wurde vom Forschungsteam von OpenAI in den USA entwickelt und wird weiterhin auf der Grundlage neuer Forschungsergebnisse und Entwicklungen aktualisiert.
T24