Meta Platforms, het bedrijf achter onder meer Facebook en Instagram, werkt met andere techbedrijven aan standaarden voor afbeeldingen die zijn gemaakt met kunstmatige intelligentie (AI). De standaarden moeten er volgens Meta voor zorgen dat afbeeldingen waarin AI is gebruikt, beter worden herkend en dat daarbij beter wordt aangegeven wanneer een beeld is gemaakt met kunstmatige intelligentie.
Op de eigen platformen Facebook, Instagram en Threads verwacht Meta over een paar maanden zo'n AI-herkenningssysteem te hebben. Het socialmediaconcern zegt sinds december beelden te markeren die zijn gemaakt met zijn eigen AI-tools en wil samen met andere techbedrijven een standaard ontwikkelen "om de transparantie voor gebruikers te vergroten", zegt Meta-bestuurder Nick Clegg tegen persbureau AFP. Hiervoor werkt het concern samen met onder meer Google, Microsoft en OpenAI, de eigenaar van ChatGPT.
Kwaadwillenden kunnen met AI-hulpmiddelen foto's en video's bewerken en op die manier onder meer nepnieuws verspreiden via social media. Dat gebeurde bijvoorbeeld na het begin van de oorlog tussen Israël en Hamas in oktober. In onder meer de Europese Unie leidde dat tot zorgen over de toename van onlinenepnieuws rond het conflict. De Europese Commissie waarschuwde socialmediabedrijven, waaronder Meta, kort na de opleving van het geweld dat nepnieuws zo snel mogelijk moet worden verwijderd.