ChatGPT, ein Bot für künstliche Intelligenz, der kürzlich in unser Leben getreten und sehr beliebt geworden ist, steht in Australien vor einer Klage wegen Verleumdung.
Laut dem Bericht des IndependentGemeindevorsteher des Bezirks Hepburn Gehirnhaube behauptete, dass ChatGPT falsche Informationen über sich selbst gegeben habe. Dem Argument zufolge sagt die KI, dass Hoods Name in der Vergangenheit in einen Bestechungsskandal verwickelt war und er deshalb im Gefängnis gelandet ist.
Angeblich teilte ChatGPT die Information mit, dass Brain Hood Anfang der 2000er Jahre im Zentralbankskandal erwähnt wurde. Aber Hood war derjenige, der diesen Skandal den Behörden gemeldet hat.
Hood sagte, wenn ChatGPT diese Fehlinformationen nicht entfernt, wird es das erste Mal sein, dass ein KI-Bot strafrechtlich verfolgt wird.
Präsident Hood kündigte an, dass er diese Klage einreichen würde, weil er befürchtete, dass die Öffentlichkeit ChatGPT nach ihm fragen und falsch über ihn informiert werden würde, und er befürchtete, dass dies seinem Beruf und seinem Ruf schaden würde.
Die für den Fall zuständigen Anwälte schickten am 21. März einen Brief an ChatGPT. Die Anwälte, die die Korrektur des Fehlers in dem Schreiben forderten, gaben der Firma ChatGPT 28 Tage Zeit. Berichtet, dass ChatGPT jetzt nicht antwortet.
Ein Beamter der Anwaltskanzlei, die den Fall verfolgte, erklärte, dass das Informatikrecht nach den jüngsten Entwicklungen in den Studien zur künstlichen Intelligenz erneuert werden müsse.
Nach australischem Recht kann der Entschädigungspreis für Verleumdung bis zu 400.000 australische Dollar betragen. Es wurde berichtet, dass Brain Hood eine Entschädigung von 200.000 Dollar verlangen könnte, je nachdem, wie viele Personen auf die Fehlinformationen zugegriffen haben.
Letzte Woche ging ChatGPT in einem Blogbeitrag auf das Problem der Fehlinformationen ein. Folgende Begriffe wurden in den Blog aufgenommen: „Benutzer werden transparent darüber informiert, dass die in ChatGPT enthaltenen Informationen möglicherweise nicht immer authentisch sind. Die Öffentlichkeit muss über aktuelle KI-Entwicklungen aufgeklärt werden, und wir erkennen, dass wir mehr tun müssen.“
T24