Forscher trainieren KI zu mehr Selbstzweifel und weniger Übermut
von belmedia Redaktion Allgemein Alltag Betrieb Bildung Bildung & Arbeit Business Business business24.ch businessaktuell.ch Dienstleistungen Digitalisierung Forschung Innovation Inspiration Magazine media24.ch nachrichtenticker.ch News Prävention Projekte Strategie Technologie Themen Trends Unternehmen Wirtschaft Ⳇ Verbreitung
Das Verbreiten von Fake News mit äusserst überzeugender Rhetorik ist eine KI-Spezialität. In sicherheitsrelevanten Zusammenhängen kann diese Reaktion höchst gefährlich sein, etwa beim autonomen Autofahren.
Forscher des Korea Advanced Institute of Science and Technology (KAIST) haben jetzt ein Trainingsprogramm für KI vorgestellt, das diese befähigt zu sagen: „Ich bin mir nicht sicher“, wenn sie eine Frage nicht beantworten oder eine Aufgabe nicht lösen kann.
Hohes Mass an Selbstvertrauen
Laut dem Team tritt übermässiges Selbstvertrauen bei KI bereits in der Initialisierungsphase auf, was sich ausbreiten und während des anschliessenden Trainings zu erheblichen Fehlern führen kann. Tatsächlich zeigt das Modell ein hohes Mass an Selbstvertrauen, wenn zufällige Daten in ein zufällig initialisiertes neuronales Netzwerk eingegeben wurden, auch wenn es völlig ahnungslos war. Diese Eigenschaft kann zu Halluzinationen führen, bei denen falsche Infos plausibel gezeigt werden.
Die KAIST-Wissenschaftler um Se-Bum Paik haben im menschlichen Gehirn Hinweise zur Lösung dieses Problems identifiziert. Das menschliche Gehirn bildet bereits vor der Geburt neuronale Schaltkreise durch „spontane neuronale Aktivität“, also durch Gehirnsignale, die ohne externe Eingabe erzeugt werden.
„Rauschen“ zeigt KI Nichtwissen
Die zufällige Initialisierung – die im Deep Learning weitverbreitet ist – ist eine grundlegende Ursache für Übermut, so die Experten. Um dem entgegenzuwirken, haben die Informatiker eine „Warm-up“-Strategie eingebaut, bei der das neuronale Netzwerk kurzzeitig mit zufälligem Rauschen – sinnlose, willkürliche Eingabedaten – trainiert wird, bevor es aus realen Daten lernt.
Diese Lernphase mit Rauschen sagt der KI, dass sie nichts weiss. Das zieht sie, derart trainiert, auch später, nachdem sie mit realen Daten gefüttert worden ist, auch in Erwägung, wenn es ihr in einer bestimmten Phase an Wissen fehlt. Sie sondert dann keine Fake News ab, die klingen, als wären sie wahr, sondern gesteht ein, dass sie aktuell überfordert ist. Die Genauigkeit des Modells und die Konfidenz werden so auf natürliche Weise aufeinander abgestimmt, heisst es abschliessend.
Quelle: pressetext.redaktion/Wolfgang Kempkens
Bildquelle: Symbolbild © AAUB/Shutterstock.com