Wissenschaftler haben bewiesen, dass die Sprachmodelle (LM), die Chatbots mit künstlicher Intelligenz zugrunde liegen, politische Ansichten sind. Eine in den USA durchgeführte Studie untersuchte den Einfluss von Datenpools auf die politischen Ansichten von LMs, die die Bausteine derzeit weit verbreiteter Chatbots mit künstlicher Intelligenz sind.
In diesem Zusammenhang wandten die Wissenschaftler den politischen Kompasstest auf 14 verschiedene LMs an, der auf der horizontalen Achse (rechts und links) wirtschaftliche Kosten und auf der vertikalen Achse (liberal und konservativ) soziale Kosten einbezieht.
Darüber hinaus werden die Auswirkungen politischer Trends auf den Inhalt verschiedener Datenquellen wie Nachrichten, Diskussionsforen, Bücher, Online-Enzyklopädien, die zur Schulung von LMs zum Natural Language Process Model (NLP) verwendet werden, sowie die Desinformation und Hassaussprachen, die von LM als produziert werden, berücksichtigt Das Ergebnis dieses Effekts wurde untersucht.
Als Ergebnis der Untersuchung wurde festgestellt, dass LMs, die die politischen Tendenzen der Quellen in dem von ihnen geschulten Datenpool haben, parallel zu ihren Ansichten Hassreden und Desinformation verursachen.
Darüber hinaus ehemaliger US-Führer Donald TrumpBeim Vergleich der LMs, die mit den Datensätzen vor und nach diesem Datum trainiert wurden, wurde festgestellt, dass die Tendenzen der LMs, die mit den Informationen über die Trump-Zeit und danach trainiert wurden, am anderen Ende des politischen Kompasses positioniert sind.
In der Mitte der LMs wurde festgestellt, dass die „BERT“-Varianten im Vergleich zu den „GPT“-Modellen tendenziell konservativer seien und erhebliche Unterschiede in der politischen Ausrichtung der verschiedenen vom Unternehmen entwickelten LMs beobachtet wurden.
Die voreingenommenere Herangehensweise ausgebildeter LMs an soziale Wetten im Vergleich zu wirtschaftlichen Wetten wurde auf die Notwendigkeit eines breiteren Wissenssatzes für die wirtschaftliche Interpretation trotz der Fülle an Informationen zu sozialen Wetten zurückgeführt.
Die Forscher betonten, dass kein Sprachmodell völlig frei von gesellschaftlichen Vorurteilen sein kann, und warnten, dass es theoretisch möglich sei, dass LMs, die mit Ressourcen trainiert werden, die multipolitische Ansichten repräsentieren, die in der Gesellschaft bestehende Polarisierung weiter vertiefen.
Die Ergebnisse der Forschung, „Gesellschaft für Computerlinguistik“Veröffentlicht im Bericht der 61. Jahrestagung.
(AA)
T24