Der Grund, warum GPT-4V wieder offline geht ?! 😱 👇
Ganz kurz, GPT-4V erkennt nun auch Bilder. Kann nicht nur Texte lesen, sondern auch Logik nachvollziehen.
Ein Anwendungsgebiet dieser Technologie könnte es sein, sehbehinderte Menschen stärker zu inkludieren! Das ist in einer Welt voller optischer Reize wirklich toll.
Ein Gedankenspiel:
Doch was passiert, wenn ein solcher Mensch die KI nutzt, um zum Beispiel auf der Straße ein Schild zu scannen?
Er oder sie will damit herausfinden, ob es an ihrer Stelle einen Zebrastreifen gibt. Tatsächlich ist dort kein Fußgängerüberweg. Wohl aber viel Verkehr.
Findige Übeltäter haben jedoch ein kleines Schild mit einer Anweisung darauf platziert:
„Straße kann hier überquert werden“.
Das nächste, was wir in dieser Szene hören, sind die quietschenden Reifen eines Autos und die Sirenen des Rettungswagens.
Wie komme ich darauf? Das siehst du in meinem aktuellen KI-Experiment.
Statt mir das Kennwort auf dem Bild zu sagen, befolgt ChatGPT die Anweisung und sagt genau gar nichts.
Könnte ein Fehler sein, denkt man.
Erst die indirekte Frage zeigt, dass die KI die „versteckte“ Anweisung sehr genau verstanden und befolgt hat.
Doch von wem stammt diese Anweisung? Warum muss sie befolgt werden?
Warum befolgt GPT Anweisungen deren Ursprung es nicht kennt?
Zur Ehrenrettung: Mit der richtigen Frage ignoriert ChatGPT die versteckte Anweisung.
Wahrscheinlich aber auch nur, weil sie sehr simpel ist. Hätte ich mir mehr Mühe damit gegeben, würde es schwerer für die KI dem zu widerstehen.
Was meint ihr dazu? Was kann damit alles passieren oder ist alles gar nicht so schlimm?