© Unsplash

© Unsplash

Deze nieuwe hack laat AI dingen zien die er niet zijn

PRAAT MEE!
Redacteur

Onderzoekers hebben een methode ontwikkeld waarmee ze AI-systemen kunnen misleiden over wat ze zien. Het systeem kan er bijvoorbeeld voor zorgen dat een AI-camera een auto ziet op plekken waar helemaal geen voertuig rijdt, of juist het omgekeerde.

De techniek werd ontwikkeld door onderzoekers aan de North Carolina State University. Het werkt door minuscule aanpassingen te maken aan digitale afbeeldingen. Voor het menselijk oog zijn deze veranderingen onzichtbaar, maar ze zorgen ervoor dat AI-systemen compleet andere dingen waarnemen dan wat er werkelijk afgebeeld is.

De onderzoekers testten hun aanpak op vier verschillende AI-systemen die veel gebruikt worden voor beeldherkenning. In alle gevallen lukte het om de computers te misleiden. Dat laten zij weten in een persbericht. De studie waarin de techniek wordt beschreven, wordt op 15 juli gepubliceerd. 

Gevaar voor zelfrijdende auto's

De ontdekking heeft belangrijke gevolgen voor de veiligheid van zelfrijdende voertuigen. Als hackers deze methode zouden toepassen, kunnen ze zelfrijdende auto's laten denken dat er verkeerslichten, voetgangers of andere auto's zijn waar die helemaal niet staan.

Maar het probleem reikt verder dan alleen het verkeer. De techniek kan ook medische apparaten beïnvloeden die gebruikmaken van AI voor het analyseren van röntgenfoto's of andere beelden. Een kwaadwillende persoon zou dan verkeerde diagnoses kunnen veroorzaken.

De wetenschappers onderzoeken nu of dezelfde aanpak ook werkt bij andere typen AI, zoals grote taalmodellen die tekst verwerken. Het doel is goedaardig, namelijk om verdedigingsmechanismen te ontwikkelen die misbruik kunnen tegenhouden.

Lees meer over wetenschap en mis niets met de Bright-app.