banner

Nachricht

Mar 14, 2024

Die Tendenz von KI-Chatbots, Unwahrheiten zu verbreiten, stellt eine Herausforderung dar

Das Problem, dass Chatbots mit künstlicher Intelligenz (KI) wie ChatGPT falsche Informationen generieren, ist für Unternehmen, Organisationen und Einzelpersonen ein wachsendes Problem. Dieses Problem betrifft verschiedene Bereiche, von der Psychotherapie bis zum juristischen Kurzschreiben. Daniela Amodei, Mitbegründerin des KI-Chatbots Claude 2, räumt ein, dass alle Modelle heutzutage unter einem gewissen Grad an „Halluzinationen“ leiden, da sie in erster Linie darauf ausgelegt sind, das nächste Wort vorherzusagen, und dies oft ungenau tun. Entwickler wie Anthropic und OpenAI, die ChatGPT entwickelt haben, arbeiten aktiv daran, dieses Problem anzugehen und die Wahrhaftigkeit ihrer KI-Systeme zu verbessern.

Experten auf diesem Gebiet gehen jedoch davon aus, dass eine vollständige Beseitigung dieses Problems möglicherweise nicht möglich ist. Die Linguistikprofessorin Emily Bender erklärt, dass die Diskrepanz zwischen der KI-Technologie und den vorgeschlagenen Anwendungsfällen inhärente Einschränkungen mit sich bringt. Die Zuverlässigkeit der generativen KI-Technologie ist von großer Bedeutung, mit einem prognostizierten Beitrag von 2,6 bis 4,4 Billionen US-Dollar zur Weltwirtschaft. Google möchte beispielsweise Nachrichtenorganisationen KI-Produkte zum Verfassen von Nachrichten zur Verfügung stellen und betont dabei die Notwendigkeit von Genauigkeit.

Die Auswirkungen falscher Informationen gehen über geschriebene Texte hinaus. Der Informatiker Ganesh Bagler hat in Zusammenarbeit mit Hotelmanagementinstituten in Indien KI-Systeme genutzt, um Rezepte zu erfinden. Ungenaue Ergebnisse können den Geschmack und die Qualität einer Mahlzeit erheblich beeinflussen, was die Notwendigkeit von Präzision in der generativen KI unterstreicht.

Während Sam Altman, CEO von OpenAI, weiterhin optimistisch ist, die Tendenz von KI-Systemen, falsche Informationen zu produzieren, zu verbessern, argumentieren Skeptiker wie Bender, dass Verbesserungen möglicherweise nicht ausreichen. Sprachmodelle sind in erster Linie darauf ausgelegt, Wortfolgen auf der Grundlage von Trainingsdaten vorherzusagen, und die von ihnen generierte Ausgabe besteht im Wesentlichen aus kreativem Schreiben und nicht aus sachlichen Informationen. Diese Modelle neigen dazu, auf subtile Weise zu versagen, die für den Leser schwer zu erkennen ist.

Trotz Bedenken halten einige Unternehmen die Tendenz von KI-Chatbots, falsche Informationen zu generieren, für eine wertvolle Funktion. Marketingfirmen wie Jasper AI nutzen die kreativen Ergebnisse der KI, um einzigartige Ideen für die Pitches ihrer Kunden zu generieren. Der Bedarf an präzisen Inhalten ist jedoch weiterhin hoch und Unternehmen wie Google unternehmen derzeit Anstrengungen, um dieses Problem anzugehen.

Bill Gates und andere Befürworter der KI zeigen sich optimistisch, dass Verbesserungen vorgenommen werden können, um KI-Modellen bei der Unterscheidung zwischen Fakten und Fiktion zu helfen. Dennoch bleibt abzuwarten, ob in Zukunft eine vollständige Genauigkeit bei KI-generierten Texten erreicht werden kann.

AKTIE