Künstliche Intelligenz (KI) - vor allem im Bildbereich - ist das Ding der Stunde. Während die einen große, vielleicht sogar übertriebene Erwartungen in sie setzen, hegen andere eine gewisse Angst vor der Technologie.
Source : Revue
Publication date : 12/06/2023
Chaos, wohin das Auge reicht. Ein vermeintliches Foto von einem Treffen der deutschen Grünen zeigt, wie am Veranstaltungsort überall Pizzaschachteln mit Essensresten herumliegen. Das Bild soll die scheinbare Doppelmoral der Umweltpartei anprangern. Doch wer ein bisschen genauer hinsieht, merkt sofort, dass es sich keineswegs um ein real aufgenommenes Foto, sondern um eine mit KI generierte Szene handelt. Das Bild ging trotzdem viral, ohne dass die breite Masse es großartig hinterfragt hätte.
Auch wenn dies auf den ersten Moment wie ein durch „Green-Bashing"-befeuerter Lausbubenstreich aussehen mag, ganz so einfach kann man es sich mit dem Umgang von KI-generierten Inhalten nicht machen. Denn solche Bilder (aber auch Texte, Artikel oder gar ganze Bücher) können durchaus dem unkritischen und in Zukunft mit zunehmender Perfektion der KI-Tools sicherlich auch den kritischeren Beobachter zu falschen Annahmen über die Realität verleiten. Klar wurden Fotos schon immer verfälscht - früher aufwendig mit Pinsel und Farbe, heute vor allem mit digitalen Werkzeugen, wie Photoshop und Co. - doch KI-basierte Bilder sind eine Art Paradigmenwechsel.
Einfache Manipulation
Ganz einfach, weil die neuen Tools diese Bildmanipulationen noch einmal einfacher und vor allem schneller machen. Auch wenn das alles meistens harmlos ist, unangebrachte Vorgehen gibt es immer wieder. So geriet die Bildagentur Adobe Stock rezent in die Kritik, weil die Plattform KI-generierte Inhalte über den Gaza-Konflikt anbot, ganz ohne sie als solche zu kennzeichnen (mittlerweile sind sie es). Wer sich vor Augen führt, wie Bilder in diesem Krieg zu Propagandazwecken eingesetzt werden, der versteht sofort, wie problematisch das Handeln von Adobe ist.
„Die ganze Industrie ist ziemlich Hype-basiert, und es kommen ständig neue Tools auf 4 4 den Markt. Wir sind an dem Punkt angelangt, wo man zwischen einem Foto und einem KI-generierten Bild teilweise nicht mehr unterscheiden kann. Ich benutze gerne den Begriff ,a priori fake`. Damit meine ich, dass alles, was man online sieht, vor allem in Zukunft, wo meiner Meinung nach die meisten Bilder KI-generiert sein werden, als fake angesehen werden muss", erklärt Misch Strotz, CEO von Neoninternet, die Firma, die im September dieses Jahres die KI-Plattform LetzAi veröffentlichte. „Das alles ist irgendwie Fluch und Segen zugleich. So könnte man beispielsweise als Luxemburger Firma problemlos sein Produkt mittels KI-generiertem Bildes an einem Strand inszenieren, ohne dass überhaupt ein Fotograf einen Strand aufsuchen müsste. Aber natürlich können Tools auch missbraucht werden."
Kritischen Blick schärfen
Der LetzAi-Mitinitiator weiß, wovon er spricht, schließlich hatte eine Werbeagentur für eine Werbekampagne für Wortlmmo mittels LetzAi ein KI-Modell mit der Melusina-Statue von Serge Ecker trainiert und Bilder generiert ... ganz ohne den Künstler um die Erlaubnis zu fragen. „Am Ende hätten sie LetzAi für ihren Zweck gar nicht gebraucht. Sie hätten das gleiche Resultat zum Beispiel auch mit einem 3D-Modell hinbekommen. Die Erlaubnis vom Künstler hätten sie allerdings so oder so benötigt, und deshalb ist der Frage der Rechte auch nicht neu oder nur in Bezug auf KI zu sehen. KI ist halt nur ein weiteres Tool, aber bestehende Gesetze und Richtlinien muss man trotzdem einhalten. Generell glaube ich nicht, dass man in Bezug auf KI großartig neue Regulierungen braucht, um sich in einem rechtssicheren Raum zu bewegen, weil - in meinen Augen zumindest - in dem Bereich der Bilder- und Persönlichkeitsrechte fast alles abgedeckt ist. Ich glaube, in Zukunft werden KI-generierte Bilder ganz ähnlich wie die Rechte und Lizenzen in der Musikindustrie gehandhabt werden." Wichtig ist in den Augen von Misch Strotz, dass die Gesellschaft lernen muss, den kritischen Blick auf Inhalte zu schärfen.
In eine ähnliche Kerbe haut Francesco Ferrero vom „Luxembourg Institute of Science and Technology" (LIST). Der Direktor der Abteilung „IT for Innovative Services" führt aus: „Aktuell ist es vielleicht so, dass ein Teil des breiten Publikums nicht oder besser gesagt noch nicht versteht, was alles mit KI möglich ist und wir noch in einer Entdeckungsphase sind, wo man nach und nach lernt, mit der neuen Technologie zu leben und umzugehen. Ob sie eine zukunftsweisende Möglichkeit oder eine Bedrohung sein wird, hängt vor allem davon ab, wie man KI nutzt. Das ist wie mit den Sozialen Netzwerken, die sind eigentlich eine gute Möglichkeit, um mit Menschen in Kontakt zu bleiben, wurden aber nachweislich schon zu Wahlmanipulationszwecken eingesetzt."
Umgang lernen
KI-Tools seien im Bilderbereich sehr demokratisch, weil sie auch Laien ermöglichen, Dinge zu tun, die vorher nur Spezialisten konnten. „Das bedeutet, dass es eben zwei Seiten der Medaille gibt. Ich bin mir allerdings sicher, dass in Zukunft Menschen verstärkt überprüfen wollen, ob das, was sie sehen, auch wirklich so stimmt. Aber natürlich besteht das Risko, dass man den Unterschied von Deepfakes und Fotos nicht mehr so einfach erkennt. Hier haben auch die Medien eine Rolle zu spielen, und es gibt ja schon jetzt Plattformen, die sich alle erdenklichen Mittel zunutze machen, um herauszufinden, ob etwas Fake ist oder nicht, und auch das breite Publikum entsprechend aufklären. Zudem muss die Gesellschaft lernen und verstehen, was alles im Bereich Bild oder Video mit KI möglich ist und dementsprechend eine gewisse Vorsicht und Skepsis an den Tag legen."
Alexandru-Adrian Tantar, der im Bereich „Trustworthy AI" arbeitet, untermauert bezüglich der Bilder: „Genau wie man heute eher die eine Zeitung als eine andere liest, weil man weiß, dass man ihr vertrauen kann, wird man in Zukunft wissen, dass verschiedene Quellen im Internet vertrauenswürdig sind und andere wiederum nicht. Je weiter sich das Ganze entwickelt, desto mehr Mittel wird es geben, um die Wahrhaftigkeit von Bildern oder Texten zu prüfen."
Tantar sieht vor allem ethische Kriterien als einen wichtigen Punkt im Umgang mit KI an: „Das Potenzial von KI ist riesig. Aber natürlich gibt es mögliche Bedrohungen. Deshalb ist es geradezu essenziell, sich die Frage zu stellen, wie man in Zukunft menschliche Werte im Bereich der KI anwendet und integriert."
Der Forscher liefert ein konkretes Beispiel aus den Niederlanden: „Es gab einen riesigen Skandal um die Überprüfung von Kindergeldansprüchen. Hier erstellte ein selbstlernender Algorithmus Risikoprofile, sozial schwache Familien oder ausländische Familien gerieten unberechtigterweise ins Visier und wurden zu Rückzahlungen in Höhe von bis zu 100.000 Euro aufgefordert. Das hat ganze Familien und Leben zerstört. Das ist ein Paradebeispiel dafür, dass man immer unbedingt verstehen muss, wie eine KI funktioniert, wenn man sie nutzen will."
Generell auf andere Nutzungsmöglichkeiten von KI angesprochen, sagt Ferrero: „Ich glaube ohne Zweifel, dass KI eindeutig vielfältige positive Anwendungszwecke haben kann und Möglichkeiten bietet, die wir ohne dieses Tool nicht hätten. Ich gebe ein Beispiel: Forscher haben mit Unterstützung von KI ein neues Antibiotikum identifiziert und konnten seine chemischen Eigenschaften viel schneller einstufen. Es zeigt, dass es durch KI ein Potenzial gibt, Sachen zu entdecken, welche die menschliche Intelligenz gar nicht bemerken würde oder vielleicht viel länger dafür brauchen würde, sie zu entdecken."
KI fordert Verantwortung von allen
In Sachen Regulierung erklärt Francesco Ferrero: „Die Entwicklungen im Bereich von KI sind rasant. Die europäische Regulierung hängt hier hinterher, und der ,AI Act` wird noch diskutiert, soll aber demnächst verabschiedet werden. Die großen Linien stehen, und potenzielle Risiken sind identifiziert, jetzt gilt es, nach und nach immer wieder an den richtigen Stellschrauben zu drehen. Wenn dann eine ganz große, wegweisende Entwicklungsstufe in Sachen KI kommt, muss vielleicht nachreguliert werden."
Sein LIST-Kollege ergänzt: „Ich glaube, dass es zwar einer Regulierung bedarf, aber es liegt auf der einen Seite auch in der Verantwortung der Entwickler, Kriterien zu respektieren, wenn sie der breiten Öffentlichkeit etwas zugänglich machen. Auf der anderen Seite müssen auch Nutzer ihre Verantwortung übernehmen."
Mimikama, die Seite, welche über Missbrauch des Internets aufklärt, schreibt übrigens über das Foto vom Grünen-Parteitag: „Das Beispiel zeigt, wie leicht Falschinformationen verbreitet werden können. Es unterstreicht die Notwendigkeit, digitale Medien kritisch zu nutzen und Informationen sorgfältig zu prüfen, bevor sie als Wahrheit akzeptiert werden." Eine wichtige Warnung.
Zukunft von LetzAi LetzAi ist von der Early Acces-Phase in die Public-Beta gewechselt. Neue flexiblere Abo-Modelle sollen es jedem ermöglichen, die Plattform zu nutzen. „Langfristig werden wir nicht das große Geld mit dieser Technologie machen", erklärt Misch Strotz. „Vor allem, weil die großen amerikanischen Firmen den Ton angeben. Deshalb wollen wir bei unserer KI gezielt den Fokus auf Lizenzen setzen, und die Künstler, die KI-Bilder generieren, bei ihren Rechten unterstützen." Seit dem Start wurden mittels LetzAl in der Early-Access-Phase über 70.000 Bilder generiert und 500 einzigartige luxemburgische KI-Modelle erschaffen. |
Hubert Morang