Google baut seine Werkzeuge zur Kennzeichnung künstlich erzeugter Inhalte aus. Die Gemini-App kann ab sofort nicht nur Bilder, sondern auch Videos auf KI-Generierung prüfen. Nutzer laden dafür ein Video hoch und fragen etwa: „Wurde dieses Video mit Google-KI erstellt?“ Die App durchsucht dann Audio- und Bildspur nach dem unsichtbaren SynthID-Wasserzeichen und gibt detailliert an, in welchen Abschnitten KI-Elemente stecken sollen. Dafür gab es in der Vergangenheit schon ein separates Tool.
Videos dürfen bis zu 100 MB groß und 90 Sekunden lang sein. Die Funktion steht in allen Sprachen und Ländern zur Verfügung, in denen Gemini nutzbar ist.
Googles SynthID-Ansatz zeigt jedoch grundlegende Grenzen: Das System funktioniert nur in eine Richtung. Findet die App ein Wasserzeichen, ist der Inhalt nachweislich KI-generiert. Fehlt das Wasserzeichen, bedeutet das aber nicht, dass der Inhalt echt ist – er könnte mit anderen Modellen ohne Kennzeichnung erstellt worden sein. Zudem liest Gemini ausschließlich SynthID aus, während alternative Standards wie C2PA komplett außen vor bleiben. Das kann ich erst recht nicht nachvollziehen, weil Google die Schnittstelle in der Suche etwa unterstützt.
Ein weiteres Problem: Nutzer müssen Inhalte aktiv überprüfen. Sinnvoller wäre es, Kennzeichnungen direkt dort anzuzeigen, wo Inhalte konsumiert werden – wie Google es bereits in meinen Augen fantastisch in der Fotos-App umsetzt. Dort werden KI-generierte Bilder in den Informationen automatisch als solche markiert.

KI erkennt sich also jetzt selbst? Hat ja echt lange gedauert. Wer die neue Coca Cola Weihnachtswerbung gesehen hat braucht nun keine KI um zu erkennen das da KI am Werk war.
Gut wäre wenn KI sich auch bei Suchanfragen erkennen würde, denn oft ist es so das man Informationen abfragt und die KI einem Fakten liefert die sie sich vor ein paar Tagen selber „zusammenhalluziniert“ hat. Andere würden von FAKE NEWS sprechen.
Das gilt vermutlich nicht für die meisten „normalen“ Leute, die Nachrichten und Meldungen nur nebenbei konsumieren, nicht so genau hingucken. Falschmeldungen, die teilweise offensichtlich waren, haben sich ja schon vor dem KI-Zeitalter leicht und schnell verbreitet.
„Falschmeldungen, die teilweise offensichtlich waren, haben sich ja schon vor dem KI-Zeitalter leicht und schnell verbreitet.“
Laut dem Beitrag wird sich daran aber nichts ändern. Denn diese Falschmeldungen spuckt die KI in Textform und nicht als Videonachricht aus und genau da liegt das Hauptproblem. Klar man kann jetzt Nachrichtenvideos auf KI prüfen und das ist gut aber den Mist den die KI selber zusammendichtet und später als Fakt abruft wird man damit leider nicht los. Da muss noch viel mehr passieren.
Klar, bin ich bei dir, da muss und kommt sicher noch mehr.
Ich habe gerade entdeckt das man Textantworten bereits in Gemini überprüfen kann. Unter den Ergebnissen ist ein Symbol mit zwei Strichen, einem Haken und einem x. Damit wird die Antwort durch die Google Suche gejagt und Inhalte die gefunden wurden grün hervorgehoben. Inhalte die unstimmig sind oder gar nicht gefunden werden sind orange markiert. Außerdem kann man diese Inhalte dann auch für mehr Informationen anklicken und sieht unter anderem die Quelle der Informationen so wie eine Vorschau.
Ist ein Anfang. Noch schöner wäre wenn falsche Informationen erst gar nicht in der Antwort der KI auftauchen würden aber gut dann wird ab jetzt eben jede Antwort überprüft.