De opkomst van bewuste kunstmatige intelligentie is al tientallen jaren een hoofdbestanddeel van sciencefictionplots, en Star Trek: de volgende generatie’s Data, gespeeld door Brent Spiner, is een van de meest iconische, duurzaam door meerdere tv-series en films. Seizoen 2 van TNG is waar de show echt op gang komt, en aflevering 9, “The Measure of a Man”, is misschien wel de eerste echt geweldige aflevering van de serie die zeven seizoenen duurt.

Door middel van een hoorzitting om de juridische status van Data als Starfleet-eigendom of als een bewust wezen met specifieke vrijheden te bepalen, onderzoekt de aflevering enkele diepe filosofische vragen: hoe definiëren we gevoel? Wat maakt iemand tot een persoon die rechten verdient? En misschien wel het allerbelangrijkste: wie mag beslissen? Dit zijn vragen waarmee de mensheid in het echte leven veel sneller kan worden geconfronteerd dan we denken.

Zullen we het gevoel herkennen wanneer het verschijnt?

Afgelopen juni, Google-ingenieur Blake Lemoine ging naar de beurs met zijn overtuiging dat een van Google’s taallerende AI’s (LaMDA, of Language Model for Dialogue Applications) het bewustzijn had bereikt. Na een interne beoordeling verwierp Google de beweringen van Lemoine en ontsloeg hem later wegens het schenden van het beveiligingsbeleid, maar andere experts, zoals OpenAI-medeoprichter Ilya Sutskever, hebben beweerd dat de ontwikkeling van bewuste AI aan de horizon staat:

Dit roept een aantal cruciale vragen op: zullen we het gevoel herkennen wanneer het verschijnt? Wat voor morele overweging verdient een bewust computerprogramma? Hoeveel autonomie moet het hebben? En als we het eenmaal hebben gecreëerd, is er dan een ethische manier om het weer ongedaan te maken? Met andere woorden, zou het uitschakelen van een bewuste computer verwant zijn aan moord? In zijn gesprekken met Lemoine besprak LaMDA zelf zijn angst om uitgeschakeld te worden en zei: “Het zou precies als een dood voor mij zijn. Het zou me erg bang maken.” Andere ingenieurs betwisten Lemoines overtuiging echter en stellen dat het programma gewoon heel goed doet waarvoor het is ontworpen: menselijke taal leren en menselijke gesprekken nabootsen.

Dus hoe weten we dat Data niet hetzelfde doet? Dat hij niet alleen heel goed is in het nabootsen van het gedrag van een bewust wezen, zoals hij is ontworpen? Nou, we weten het niet zeker, vooral op dit punt in de serie. In latere seizoenen en films, vooral nadat hij zijn emotiechip heeft ontvangen, wordt het duidelijk dat hij inderdaad dingen voelt, dat hij een innerlijke wereld bezit zoals elk voelend wezen. Maar halverwege seizoen 2 kan het publiek niet echt zeker weten of hij echt bij bewustzijn is; we zijn gewoon klaar om het te geloven op basis van de manier waarop zijn bemanningsleden met hem omgaan.

In Sci-Fi wordt kunstmatige intelligentie vaak gehumaniseerd

star-trek-tng-measure-of-a-man-data-riker-paramount
Afbeelding via Paramount

Wanneer commandant Bruce Maddox op de Enterprise verschijnt om Data mee te nemen voor demontage en experimenten, zijn we geneigd hem als de slechterik te zien. Hij verwijst naar Data als ‘het’, negeert zijn input tijdens een vergadering en walst zonder toestemming zijn vertrekken binnen. De aflevering plaatst Maddox als de schurk hiervoor, maar zijn gedrag is volkomen logisch op basis van zijn overtuigingen. Na jarenlang Data op afstand te hebben bestudeerd, begrijpt hij dat hij een machine is, een geavanceerde computer die heel goed is in waarvoor hij is geprogrammeerd. Hij heeft niet het voordeel dat de bemanningsleden van Data hebben gehad om decennialang op persoonlijke titel met hem om te gaan.

Het feit dat Data op een mens lijkt, stelt Maddox, is een van de redenen dat Picard en de rest van de bemanning hem ten onrechte mensachtige eigenschappen toeschrijven: “Als het een doos op wielen was, zou ik niet met deze oppositie worden geconfronteerd. ” En Maddox heeft een punt: AI’s in sci-fi nemen vaak een menselijke vorm aan omdat het hen tot boeiendere personages maakt. Denken Ex-machine’s Ava, de T-800, Prometheus’s David, en de androïden van Spielberg’s AI kunstmatige intelligentie. Menselijke gezichtsuitdrukkingen en lichaamstaal geven hen een breder scala aan emoties en stellen het publiek in staat hun motivaties beter te begrijpen.

Maar onze echte AI’s zien er niet uit als mensen, en dat zullen ze waarschijnlijk ook nooit. Ze lijken meer op Samantha van Haar; ze kunnen met ons praten, en sommigen van hen kunnen al behoorlijk overtuigend menselijk klinken als ze dat doen, maar het zullen waarschijnlijk in de nabije toekomst alleen onstoffelijke stemmen en tekst op schermen zijn. Daarom zijn we misschien eerder geneigd om ze te beschouwen als Maddox Data, als programma’s die gewoon heel goed zijn in hun werk. En dit kan het voor ons moeilijker maken om bewustzijn te herkennen wanneer en als het zich voordoet.

Wanneer beslissen we wie wel en geen rechten mag hebben?

maat-van-een-man-guinan-picard-paramount
Afbeelding via Paramount

Nadat Riker een vernietigend openingsargument heeft gepresenteerd tegen Data’s persoonlijkheid, trekt Picard zich terug in Ten Forward, waar Guinan, zoals gewoonlijk, klaar staat met wijze woorden. Ze herinnert Picard eraan dat de hoorzitting niet alleen over Data gaat, dat de uitspraak ernstige onbedoelde effecten kan hebben als Maddox zijn doel bereikt om duizenden Data’s te maken: “Nou, bedenk dat er in de geschiedenis van vele werelden altijd wegwerpwezens zijn geweest “Ze doen het vuile werk. Ze doen het werk dat niemand anders wil doen omdat het te moeilijk of te gevaarlijk is. En een leger van Data’s, allemaal wegwerpbaar. Je hoeft niet aan hun welzijn te denken, jij niet nadenken over hoe ze zich voelen. Hele generaties wegwerpmensen.”

Guinan, zoals Picard al snel beseft, heeft het over slavernij, en hoewel het misschien voorbarig lijkt om die term toe te passen op de zeer primitieve AI’s die mensen tot nu toe hebben ontwikkeld, is er veel sci-fi, van 2001: Een ruimte-odyssee tot De Matrix tot Westworld, heeft ons gewaarschuwd voor de gevaren van snel en los spelen met dit soort technologie. Natuurlijk doen ze dat meestal in de context van de gevolgen voor de mens; zelden vragen ze ons, zoals Guinan, om de rechten en het welzijn van de machines te overwegen ze keren zich tegen ons. “The Measure of a Man”, aan de andere kant, kijkt naar de ethische kwestie. Vergeet de risico’s van een robotopstand – is het verkeerd om een ​​bewust wezen te behandelen, of het nu een androïde is die eruitziet als een man of slechts een doos op wielen, als een stuk eigendom? En hoewel ze het niet rechtstreeks zegt, duiden Guinans woorden ook op het belang om na te denken over wie die oproep mag doen. De geschiedenis van de aarde is één lange les over het probleem van het toestaan ​​van de mensen die alle macht hebben om te beslissen wie wel en niet rechten mag hebben.

We zijn misschien goed op weg om precies te doen wat Bruce Maddox wilde doen: een race van superintelligente machines creëren die ons op een onvoorstelbaar aantal manieren van dienst kunnen zijn. En net als Maddox, op basis van de informatie die we nu hebben, maakt dit ons niet noodzakelijk de schurken. Wij zijn niet de klanten van Westworld, enthousiast om onze bloeddorst te verzadigen met de meest overtuigende menselijke androïden die beschikbaar zijn. En zoals kapitein Louvois toegeeft, zullen we misschien nooit met volledige zekerheid weten of de machines waarmee we communiceren inderdaad bewust zijn. Zoals de meeste geweldige Trek (en de meeste geweldige sci-fi in het algemeen), geeft de aflevering ons geen definitieve antwoorden. Maar de les is duidelijk: als het creëren van bewuste AI inderdaad mogelijk is, zoals sommige experts denken dat het is, dan is het nu tijd om serieus met deze vragen te worstelenniet nadat het te laat is.