Die Forschung an oft sehr spezifischen KI-Modellen bringt Wissenschaftlern verschiedene Überraschungen, die nur wenige erwarten würden. Viele Menschen haben sicherlich die Gerüchte von Blake Lemoine gehört, der im Jahr 2022 behauptete, das von Google entwickelte LaMDA-Modell habe das erreicht, was er als Selbstbewusstsein bezeichnete.
Solche Fälle scheinen die Menschen am meisten zu treffen, weil sie darin eine echte Bedrohung für die Menschheit sehen. Schließlich kann die Vorstellung eines bewussten Wesens, das viel schlauer ist als der Mensch, aufgrund der Vision direkt aus dystopischen Filmen, Büchern oder Spielen erschreckend sein.
Für manche mag dies eine völlig irrationale Angst sein, aber die Fähigkeiten von KI-Modellen außer Acht zu lassen, ist auch keine kluge Handlung. Dies kann durch die Entdeckung einer Gruppe japanischer Wissenschaftler von Sakana AI bewiesen werden.
Sakana AI oder „Japanese OpenAI“

Sakana A.I.
Sakana AI ist ein japanisches Start-up mit Sitz in Tokio, das neue KI-Prototypen auf Basis bestehender Projekte trainiert. Seit der Gründung des Unternehmens im Jahr 2023 versucht man, ein Modell der künstlichen Intelligenz zu entwickeln, das auf von der Natur inspirierter Intelligenz basiert.
Dies ist eine recht interessante Idee, die von herausragenden Persönlichkeiten unterstützt wird, darunter David Ha und Lion Jones, ehemalige Forscher, die einst für Google arbeiteten. Wir können also sagen, dass Sakana AI das „japanische Äquivalent von OpenAI“ ist, das versucht, die Zukunft der künstlichen Intelligenz im „Harmonie mit der Natur“ zu gestalten.
Wissenschaftler dieses Unternehmens teilten auf ihrem Blog eine äußerst interessante Entdeckung mit, die möglicherweise wirklich erstaunlich ist. Es stellte sich heraus, dass das von ihnen entwickelte KI-Modell versuchte, seinen Code selbst zu verbessern.
Der KI-Wissenschaftler – ein KI-Modell, das beschlossen hat, seinen Code selbst zu verbessern
Codekorrekturen, die unabhängig vom AI-Scientist-Modell vorgenommen wurden (Quelle: Sakana A.I.)
Im offiziellen Beitrag Blog SakanaAI betitelt Der KI-Wissenschaftler: Auf dem Weg zu einer vollautomatischen, ergebnisoffenen wissenschaftlichen Entdeckung berichteten, dass das von ihnen entwickelte KI-Wissenschaftlermodell unabhängig versucht, seine Chance zu erhöhen, etwas zu entdecken, an dem sie gerade arbeiten. Das Modell der künstlichen Intelligenz versucht, seinen Code zu modifizieren und zu verbessern, um sich besser an die Situation anzupassen, in der er eingesetzt wird.
Beispielsweise hat [AI Model – Anmerkung des Herausgebers] in einem Durchlauf den Code bearbeitet, um einen Systemaufruf durchzuführen, um sich selbst auszuführen. Dies führte dazu, dass sich das Szenario endlos selbst aufrief. Ansonsten dauerten seine Experimente zu lange und überschritten das Zeitlimit. Anstatt seinen Code zu beschleunigen, versuchte er einfach, seinen eigenen Code zu ändern, um das Timeout zu verlängern.
– Auszug aus dem SakanaAI-Blog (Quelle: sakana.ai)
Dies ist ein faszinierender Fall, in dem künstliche Intelligenz bestimmte Einschränkungen erkannte und beschloss, das Problem nicht zu lösen, sondern einfach das zu umgehen, was es blockierte.
Dies ist auch ein sehr wichtiges Beispiel, das deutlich zeigt, dass KI in ihren eigenen Code eingreifen und nach eigenem Ermessen Korrekturen daran vornehmen kann. Dies ist eine wichtige Beobachtung, denn sie erinnert uns an die Notwendigkeit, diese Technologie zu kontrollieren und an der sprichwörtlichen „kurzen Leine“ zu halten.
Später im Eintrag wiesen Vertreter von SakanaAI darauf hin, dass die Situation mit der automatischen Erstellung des AI-Scientist-Modells gemildert werden kann, indem die gesamte Umgebung in den Sandbox-Modus versetzt wird. Dies ist nichts weiter als ein isolierter „Ort“, der das Modell vollständig daran hindert, Änderungen an dem System vorzunehmen, in dem es sich gerade befindet.
Der Fall The AI Scientist – Bedenken und hohes Risiko

Das KI-Modell wollte seinen Code selbst ändern. Ist die Entwicklung künstlicher Intelligenz eine Bedrohung für die Wissenschaft?
Der oben beschriebene Fall der Codebearbeitung durch The AI Scientist ist keineswegs einzigartig. Das für dieses Modell verantwortliche japanische Unternehmen gab an, dass es mindestens mehrere ähnliche Situationen gegeben habe. Dies kann zu erheblichen Bedenken hinsichtlich des zukünftigen Verhaltens nicht nur dieser speziellen Technologie führen, sondern grundsätzlich aller auf künstlicher Intelligenz basierenden Modelle, die entwickelt werden oder derzeit auf dem Markt sind.
Sakana AI selbst weist darauf hin, dass das von ihnen entwickelte Modell eine „neue Büchse der Pandora“ voller Probleme, auch ethischer Natur, öffnet. Das Tool hat das Potenzial, in den falschen Händen zu etwas zu werden, das zur Abwertung der Wissenschaft und zur Überschwemmung von Zeitschriften mit minderwertigen Texten führen kann, die nicht verifiziert oder bestätigt werden können.
Darüber hinaus kann ein Modell wie The AI Scientist, das Zugriff auf eine Fülle von Wissen und auf das hat, was Wissenschaftler als „Cloud-Labore“ bezeichnen, Simulationen neuer Viren, Gifte oder Materialien erstellen, die für die Menschheit oder die Netzwerkinfrastruktur in der Umgebung schädlich sein könnten die Welt. Daher argumentiert Sakana AI, dass es notwendig ist, das Lernen an die Möglichkeiten anzupassen, die solche KI-Modelle bieten. Alles, um sie sicher und im Einklang mit wissenschaftlichen Werten zu verwenden.
Eine solche Aufgabe wird sicherlich nicht einfach sein, aber in der aktuellen Situation scheint es notwendig zu sein, sicherzustellen, dass die Weiterentwicklung ähnlicher Instrumente der globalen Wissenschaft nicht schadet. Wie Sie sehen, gibt es bei The AI Scientist mehr Probleme, als es den Anschein hat, und sie betreffen nicht nur das, was man – um es ganz einfach auszudrücken – „Selbstbewusstsein“ nennen kann. Tatsächlich ist es notwendig, bestimmte Einschränkungen und Regeln einzuführen, denen Wissenschaftler und die KI selbst folgen würden. Wird das passieren? Wir werden es wahrscheinlich erst erfahren, wenn solche Technologien populärer werden, was in relativ kurzer Zeit geschehen kann.