
5 vraagstukken van Google voor veilige kunstmatige intelligentie
Google zwengelt de discussie over de veiligheid van kunstmatige intelligentie nog eens aan met vijf regels voor AI.
Technologie wordt slimmer dankzij kunstmatige intelligentie en ruim een jaar geleden was dat reden voor knappe koppen als Elon Musk en Stephen Hawking om mensen te waarschuwen voor mogelijk gevaar. In een open brief maken zij duidelijk dat we de machines altijd zo moeten installeren, dat ze door mensen bestuurbaar blijven. De machine moet zijn programmeercode ten alle tijden gehoorzamen.
In een nieuwe blogpost van Google staan vijf punten waar volgens het bedrijf op gelet moet worden bij de ontwikkeling van veilig kunstmatige intelligentie. Het zijn discussiepunten waar in de komende jaren discussie over gevoerd wordt. Chris Olah van Google Research schrijft dat het momenteel nog kleine problemen betreft, die 'belangrijk worden voor toekomstige systemen'.
Vijf punten
1. Geen negatieve bijwerkingen
Ten eerste moeten negatieve bijwerkingen worden voorkomen. Google zegt dat we een manier moeten vinden waarop een vorm van kunstmatige intelligentie zijn omgeving niet op een negatieve manier beïnvloedt als hij zijn doel wil behalen: "Moet een robot wel een vaas omstoten als hij daardoor sneller kan zijn?"
2. Duidelijk doel
Een robot moet zijn werk naar behoren doen, zonder workarounds. In het geval van de schoonmaakrobot moet vuil dus opgeruimd worden, in plaats van afgedekt door iets anders wat het systeem zelf niet als rommel ziet.
3. Feedback verwerken
Kunstmatige intelligentie moet efficiënt omgaan met de terugkoppeling die het van gebruikers krijgt. Als je te vaak moet vragen of de robot iets anders wil doen, wordt het vervelend en frustrerend.
4. Machine moet veiligheidsregels kennen
Kunstmatige intelligentie moet niets kunnen beschadigen, niet in de omgeving, maar ook niet zichzelf. Google geeft als voorbeeld dat een schoonmaakrobot bijvoorbeeld wel met dweiltechnieken mag experimenteren, maar dat het niet moet proberen een natte dweil bij een stopcontact te houden.
5. Werken in een nieuwe omgeving
Het laatste punt is dat kunstmatige intelligentie overal zou moeten werken, ook in een omgeving waar hij niet eerder is geweest.
Google gaat in een gepubliceerd rapport (pdf) dieper in op de vraagstukken.