©Unsplash

Microsoft noemt Copilot 'voor entertainment', maar verkoopt het wel als werktool
Microsoft zet vol in op AI met Copilot, maar tempert opvallend genoeg de verwachtingen in zijn eigen voorwaarden. Dit patroon zien we tegenwoordig bij veel AI-aanbieders.
In de gebruiksvoorwaarden van Microsoft Copilot staat namelijk vrij duidelijk dat de tool ‘alleen voor entertainment’ bedoeld is. Gebruikers worden expliciet gewaarschuwd om er niet op te vertrouwen voor belangrijk advies. De reden: Copilot kan fouten maken en werkt niet altijd zoals bedoeld.
Misleidend
Dat voelt verkeerd, omdat Microsoft diezelfde AI juist ontzettend veel integreert in producten als Windows 11 en nieuwe Copilot+-pc’s. Daar wordt het wel gepresenteerd als productiviteitstool, iets wat je helpt bij werk, code en dagelijkse taken.
Dit is iets wat ook andere AI-bedrijven doen. Vrijwel alle AI-bedrijven bouwen waarschuwingen in. Zo zegt xAI dat AI-output foutief, misleidend of zelfs ongepast kan zijn. Het onderliggende probleem is bekend: grote taalmodellen werken op basis van waarschijnlijkheid en kunnen daardoor overtuigend klinkende, maar onjuiste antwoorden geven. Maar toch presenteren ze hun AI wel als betrouwbaar hulpmiddel, ook al komt dat niet overeen met wat er in de voorwaarden staat.
Foute interpretatie van AI heeft soms grote gevolgen
Het gevolg is dat veel mensen Copilot en andere LLM’s zien als modellen die je voorzien van feiten en die je gebruikt voor belangrijke dingen. Dit heeft vaak negatieve gevolgen. Zo waren er bij Amazon incidenten waarbij AI-gegenereerde code zonder voldoende controle werd gebruikt, met storingen als gevolg. Interne systemen en zelfs delen van de website werden geraakt door aanpassingen die deels door AI waren gegenereerd.
De kern is simpel: bedrijven verkopen AI als hulpmiddel voor serieus werk, maar juridisch positioneren ze het als iets waar je vooral niet blind op moet vertrouwen.









