DAX
141.3900
Der US-Internetriese Meta will in den Online-Netzwerken des Konzerns künftig alle Bilder identifizieren, die mithilfe von Künstlicher Intelligenz (KI) erzeugt worden sind und mit diesem Schritt mehr Transparenz für Nutzerinnen und Nutzer schaffen. Außerdem arbeitet die Facebook- und Instagram-Mutter gemeinsam mit anderen Technologiekonzernen an einem gemeinsamen Standard für die Branche, wie Meta am Dienstag mitteilte. Ein solcher Standard soll es ermöglichen, KI-generierte Inhalte besser zu erkennen und entsprechend zu kennzeichnen.
Bereits "in den kommenden Monaten" will Meta nach eigenen Angaben alle von KI erzeugten Bilder, die von Nutzerinnen und Nutzern seiner sozialen Netzwerke Facebook, Instagram und Threads gepostet werden, identifizieren und entsprechend labeln. Solche Labels nutzt Meta bereits bei Bildern, die mit seinem im Dezember eingeführten Meta-KI-Tool erstellt wurden.
Künftig will der Konzern auchg in der Lage sein, "dies auch mit Inhalten zu tun, die mit Tools anderer Unternehmen erstellt wurden", wie Meta-Politik-Chef Nick Clegg in einem Blogeintrag erklärte. Zu diesen anderen Unternehmen zählen demnach Google, OpenAI, Microsoft, Adobe, Midjourney oder Shutterstock.
Die Ankündigung des Konzerns fällt in eine Zeit wachsender Befürchtungen, dass KI-erzeugte Inhalte zunehmend zur Manipulation von Wahlen oder zur Verbreitung von Falschinformationen missbraucht werden könnten. In diesem Jahr stehen unter anderem in den USA Präsidentschaftswahlen an. Zudem hatte zuletzt die Verbreitung sogenannter Deepfakes hohe Wellen geschlagen; davon betroffen war auch US-Sängerin Taylor Swift, von der angebliche Pornobilder im Internet kursierten.
Meta-Politik-Chef Clegg räumte zwar ein, dass die flächendeckende Kennzeichnung von KI-Inhalten, die vor allem durch unsichtbare Markierungen erfolgen soll, das Risiko gefälschter Bilder "nicht vollständig eliminieren" werde. Es lasse sich aber "sicherlich ihre Verbreitung im Rahmen dessen minimieren, was die Technologie derzeit zulässt", erklärte er.
U.Ammann--NZN