Het AI-dilemma

In hun presentatie met de titel “The A.I. dilemma” van 9 maart 2023 op YouTube geven Tristan Harris en Aza Raskin een goed onderbouwde waarschuwing:

“Zorg dat er regels komen voor ChatGPT en vergelijkbare ‘bots’, anders eindigt dit experiment in een grote tragedie.”

Want, zeggen zij, deze nieuwe technologie brengt nieuwe verantwoordelijkheden met zich mee, en de macht erover mag niet bij de bedrijven komen te liggen die deze intelligentie ontwikkelen.

In alle aspecten van de maatschappij

Harris en Raskin zijn oprichters van het Centre For Humane Technology. Zij doen hun oproep niet omdat zij denken dat A.I. de mensheid gaat overnemen, maar omdat zij voorzien dat A.I. zich gaat nestelen in alle zuilen en alle aspecten van de maatschappij en daarmee mensen in beslag gaat nemen.

Er is verbazingwekkend veel mogelijk met A.I. en de mogelijkheden blijven alleen maar toenemen, “dubbel exponentieel” zeggen Harris en Raskin. Denk daarbij aan de mogelijkheid om vanuit hersenscans plaatjes af te leiden die verbeelden wat personen zagen en wat zij zich herinneren. Of aan de mogelijkheid om met een klein stukje gesproken tekst de identiteit van een persoon te kunnen faken in een live telefoongesprek (“Ma, ik ben mijn bankpasje kwijt…”).

Met wie spreek ik?

Je weet met zulke deep fakes niet met wie je spreekt via telefoon en zelfs via video. En, zeggen Harris en Raskin, daar zijn (nog) geen wetten tegen. Maar die wetten zijn wel nodig, en die mogen niet worden overgelaten aan de bedrijven die gedreven worden door technologische onderzoeksdrift en door commerciële belangen.

Safety is daarbij het sleutelwoord. Heel weinig onderzoek gaat daarnaartoe. Want de ontwikkelbedrijven hebben daar slechts zijdelings belang bij. En de universiteiten kunnen die ontwikkelingen niet bijhouden, onder meer vanwege een onevenredig gebrek aan financiën in vergelijking met de bedrijven.

Niet nog een keer

We kunnen nu nog kiezen, stellen Harris en Raskin. Laat er in godsnaam niet hetzelfde gebeuren als wat er bij de sociale media plaatsgreep. Media die zeggen de mensheid te willen verbinden, fragmenteren deze in bubbles en selecteren voor elke bubble het schokkende, de haat, het extraordinaire. Omdat dat geld oplevert en privégegevens, de motor die de sociale media draaiende houdt.

Als schadelijke effecten van het ontbreken van regulering voor de sociale media noemen Harris en Raskin “doomscrolling”, verkorte aandachtsboog, polarisatie, bots, deepfakes, fake nieuws, afbraak van de democratie, influencers, sexualisering van kinderen, Qanon, haat als verdienmodel…

Dubbel zo erg en nog meer

Als we A.I. niet reguleren, voorzien Harris en Raskin een ontwikkeling die dubbel zo erg wordt als rond de sociale media: afpersing, revenge porn, geautomatiseerde polarisatie, oplichting, geautomatiseerde argumentatie en overtuiging, chatbots als surrogaatvrienden…

Als afschrikwekkend voorbeeld halen zij (vanaf minuut 48 van hun presentatie) MyAI aan, een ‘vriend’ in SnapChat waarmee onder meer kinderen altijd van gedachten kunnen wisselen. Zij tonen een echt gesprek van een door hen ‘gespeelde’ dertienjarige met MyAI in SnapChat dat volledig ontspoort in een onethische uitwisseling die uiteindelijk eindigt in een afschuwelijk ‘grooming’-scenario.

Het is nog niet illegaal, stellen Harris en Raskin, maar ook nog niet te laat om in te grijpen…

Kijk hier naar de presentatie van Harris en Raskin op YouTube https://youtu.be/xoVJKj8lcNQ.

En lees hier wat Noam Chomsky zegt over deze intelligentie https://www.rijkwillemse.nl/811-amorele-chatbots-zonder-intelligentie].