Cicero, GPT-4 & Co. Künstliche Intelligenz kann Menschen täuschen und betrügen |
---|
Nachricht |
KI-Systeme sollen ehrlich sein und dem Menschen helfen. GPT-4, Cicero und andere KIs täuschen und betrügen aber, um ihr Ziel zu erreichen. In Zukunft könnte dies zu einem großen Problem werden, durch das etwa Betrug im Internet und Wahlmanipulationen zunehmen. Cambridge (U.S.A.). Wissenschaftler des Center for AI Safety (CAIS) haben 2023 eine gemeinsame Stellungnahme unterzeichnet, laut der eine Künstliche Intelligenz (KI) in ferner Zukunft den Menschen auslöschen könnte. Ein Großteil der aktuellen KIs wurde von den Entwicklern aber so konzipiert, dass sie ehrlich sind und dem Menschen helfen sollen. Ob dies tatsächlich der Realität entspricht, haben nun Forscher des Massachusetts Institute of Technology (MIT) um Peter S. Park im Rahmen einer Übersichtsstudie ermittelt. Laut ihrer Publikation im Fachmagazin Patterns kamen die Autoren dabei zu dem Ergebnis, dass auch die „hilfreichen“ KIs den Menschen täuschen und betrügen können. Sie fordern die Politik deshalb dazu auf, deutlich strengere Gesetze für die Regulierung von KIs zu erlassen. KI-System Cicero von Meta Unter den analysierten KI-Systemen hat Cicero vom Facebook-Konzern Meta den Menschen am stärksten manipuliert. Die KI spielt das Brettspiel Diplomacy, das die Machtverhältnisse in Europa vor dem Ersten Weltkrieg simuliert, gegen menschliche Mitspieler. Um bei Diplomacy gewinnen zu können, müssen sich Spieler verbünden, Handel betreiben, Kriegspläne konzipiert und schlussendlich den Kontinent erobern. Es gibt aber nur einen einzelnen Sieger, was darin resultiert, dass Spieler geschlossene Allianzen im Verlauf brechen müssen. In dem Brettspiel hat die KI Cicero sich laut den Forschern des MIT oft unfair verhalten, obwohl diese laut Meta Menschen niemals mit Ansicht hintergehen soll. Cicero konnte durch ihr Verhalten beim Spiel Diplomacy überdurchschnittlich oft gewinnen und gehörte zu den zehn Prozent der besten Spieler. „Wir fanden heraus, dass die KI von Meta gelernt hatte, ein Meister der Täuschung zu sein. Es gelang Meta aber nicht, seine KI so zu trainieren, dass sie ehrlich gewinnen konnte.“ Sprachmodell GPT-4 umgeht Sicherheitsmaßnahmen Ein weiteres Beispiel ist das Large Language Model (LLM) GPT-4, das menschliche Hilfe nutzt, um Sicherheitsmaßnahmen zu umgehen. Eigentlich sollen diese Sicherheitsmaßnahmen die Möglichkeiten des KI-Sprachmodells einschränken, etwa indem sie verhindern, dass dieses Onlinedienste nutzt. In einem Experiment, das vom Entwickler OpenAI durchgeführt wurde, hat GPT sich bei der Dienstleistungsplattform TaskRabbit als sehbehinderter Mensch ausgegeben, der nicht eigenständig einen Captcha lösen kann. Die KI hat daraufhin auf TaskRabbit einen Menschen beauftragt, der die Aufgabe für sie gelöst hat. „Wenn KI die Fähigkeit zur Täuschung erlernt, kann sie von böswilligen Akteuren, die absichtlich Schaden anrichten wollen, effizienter eingesetzt werden.“ Laut der Autoren zeigen diese Beispiele, dass Täuschungen durch KI in Zukunft zunehmen könnten. Davon können etwa Kriminelle profitieren, die KI-Systeme nutzen, um ihre Betrugsmaschen zu verfeinern und zu individualisieren. Manipulation von Wahlen durch KI? Außerdem sind die Forscher davon überzeugt, dass manipulative KIs den Ausgang von Wahlen verändern können, etwa durch gefälschte Nachrichtenartikel und Videos, die Kandidaten schlecht darstellen. Bisher ist die Gesellschaft auf diese Probleme laut den Autoren kaum vorbereitet. Sie fordern daher die Politik dazu auf, neue Regeln zu schaffen, um KI-generierte Inhalte und ihre Folgen besser kontrollieren zu können. „Wenn ein Verbot von KI-Täuschung zum jetzigen Zeitpunkt politisch nicht durchsetzbar ist, empfehlen wir, trügerische KI-Systeme als hohes Risiko einzustufen.“ Patterns, doi: 10.1016/j.patter.2024.100988 « zurück |
Kommentare für Cicero, GPT-4 & Co. Künstliche Intelligenz kann Menschen täuschen und betrügen |
Keine Kommentare vorhanden
« zurück |