KI-Forscher fordern mehr Forschung, um die Denkprozesse von KI transparenter zu machen
17. Juli 2025 um 02:59:09
Michael Förtsch
Eine Gruppe von 40 KI-Forschern aus Unternehmen wie OpenAI, Google DeepMind und Meta sowie mehreren Forschungsinstituten hat gemeinsam ein Positionspapier verfasst. In diesem fordern sie mehr Forschung zu Künstlichen Intelligenzen, die nach dem Chain-of-Thought-Prinzip funktionieren und somit eine nachlesbare Gedanken- und Entscheidungskette formulieren. Reasoning-Modelle wie GPT-o3 und DeepSeek R1 sind Beispiele hierfür.
Der Grund? Diese Modelle schaffen eine gewisse Transparenz darüber, wie die KI-Systeme zu einem Ergebnis kommen, wo sie Fehler machen oder bewusst täuschen. Die Forscher äußern jedoch die Befürchtung, dass kommende Modelle diesen Vorteil verlieren könnten, da sie ihre Gedanken möglicherweise nicht mehr verbalisieren müssen, um Reasoning zu betreiben, oder weil sie ihre Denkschritte absichtlich verschleiern, da ihnen bewusst ist, dass sie beobachtet werden.
Die Forscher regen deshalb an, das Chain-of-Thought-Prinzip als potentielles Sicherheitswerkzeug zu erkennen und weiterzuentwickeln, um KI überprüfbarer zu machen. Denn wie die Forscher in ihrem Positionspapier festhalten, braucht es mehr und nicht weniger Einsicht in die Prozesse der Modelle. Bereits jetzt könne nicht genau nachvollzogen werden, wie diese im Detail funktionieren. Viele Mechanismen aktueller KI-Modelle wären weiterhin kaum erforscht und unverständlich.


