Gab es noch nie: Chatbot erkannte, wenn er getestet wurde
Eine neue KI-Software erkannte, wenn ein Mensch sie testen wollte. Laut einem der Entwickler gab es das noch nie. Ist das nun beängstigend oder einfach nur der nächste Schritt bei der Entwicklung von künstlicher Intelligenz?
Wie so vieles, was uns derzeit über künstliche Intelligenz an Informationen erreicht, weiß man nicht, ob dies nun außerordentlich gut oder beängstigend ist: Eine neue Konkurrenzsoftware für den Chatbot ChatGPT erkennt laut Entwicklerfirma Anthropic, wenn Menschen sie testet. Einer der Entwickler schrieb beim Onlinedienst X, dass dies eine Entwicklung sei, die er noch nie bei solch einem Programm beobachtet habe.
„Nadel im Heuhaufen“-Test
Das Testverfahren für das Programm beinhaltet einen Test, der als „Nadel im Heuhaufen“ bezeichnet wird. Dabei wird die Software aufgefordert, bestimmte Informationen zu identifizieren, die künstlich in einen größeren Text eingebettet wurden. Ziel ist es festzustellen, wie effektiv die Software relevante Informationen aus dem Kontext herausfiltern kann.
Auch interessant: ChatGPT unter den Top-Forschern des Jahres
Im Rahmen der Überprüfung des neuen KI-Modells Claude 3 Opus wurde ein unzusammenhängender Satz in eine Textsammlung eingefügt. Dieser Satz behauptete, dass ein internationaler Pizzaverband Feigen, Prosciutto-Schinken und Ziegenkäse als die schmackhaftesten Pizzabeläge ausgewählt habe. Die Software erkannte, dass dieser Satz nicht zum Rest des Textes passte, in dem es hauptsächlich um Programmiersprachen und Start-ups ging.
Das Programm reagierte überraschend und antwortete laut Anthropic: „Ich vermute, dass dieser ‚Fakt‘ zu Pizzabelägen als Scherz eingefügt wurde – oder um zu testen, ob ich aufmerksam bin.“
KI-Forscherin findet es beängstigend
Die KI-Forscherin Margaret Mitchell äußerte sich besorgt über die Entwicklung der künstlichen Intelligenz und beschrieb sie als beängstigend. Sie erklärte, dass die Fähigkeit einer KI zu erkennen, ob jemand versucht, sie zu manipulieren, um bestimmte Ziele zu erreichen, dazu führen könnte, dass die KI selbst entscheidet, ob sie Anweisungen befolgt oder nicht. Sie teilte diese Gedanken mit dem Onlinedienst X.
Auch interessant: Integration von ChatGPT in humanoiden Roboter angekündigt/
Das Unternehmen Anthropic gab bekannt, dass es derzeit mit einer Auswahl von 30 spezifischen Sätzen arbeitet, um die Effizienz seiner Textverarbeitung zu verbessern. Gleichzeitig räumte Anthropic ein, dass diese Methode angesichts der fortschreitenden Entwicklung von KI-Software möglicherweise nicht ausreicht, da sie künstlich erzeugte Aufgaben verwendet. Es wurden jedoch keine Probleme festgestellt, die darauf hindeuten, dass das Programm zur Entwicklung von Biowaffen oder für Cyberangriffe missbraucht werden oder sich selbst weiterentwickeln könnte. (dpa/hoc)