Vraag het aan Freekje

To know what people really think, pay regard to what they do, ratherthan what they say
Descartes

In deel 1 en deel 2 van ‘Laat ons Berekenen’ is de ontwikkeling en het ontstaan van de computer de revue gepasseerd. Pascal, Leibniz en Babbage prutsten de eerste rekenmachines in elkaar en uiteindelijk maakten onder andere de filosofische en praktische inzichten van Alan Turing de computer tot wat deze vandaag is: een multifunctioneel systeem dat in een razend tempo verschillende opdrachten tegelijk kan uitvoeren. Maar maakt dat de computer ook intelligent? Interne link
Lees hier:
deel 1 van “Laat ons berekenen; de ontwikkeling van de computer”
en
deel 2 van “Laat ons berekenen; het leven en werk van Alan Mathison Turing”

Logic Theorist
Een van de eersten die probeerden het complexe menselijke redeneervermogen met een computer te simuleren – Artificiële Intelligentie, of AI – waren de Amerikaanse wetenschappers Allen Newell en Herbert Simon. In 1956 introduceerden zij het programma Logic Theorist dat middels ‘backward reasoning’ in staat was een wiskundig theorema te ontbinden in onderliggende axioma’s. Het programma had vijf fundamentele axioma’s tot zijn beschikking en drie mogelijke transformaties. Het wiskundige theorema werd via de transformatie ontbonden in logisch consistente termen, een proces dat doorging tot alle opties geprobeerd waren of tot de ontbonden termen overeenkwamen met de axioma’s. Hoewel de Logic Theorist maar een beperkt arsenaal tot zijn beschikking had, bleek het programma toch in staat voor verschillende theorema’s uit Whitebread en Russell’s Principia Mathematica valide bewijzen te genereren, waarvan één door Russell zelfs eleganter en efficiënter bevonden werd dan het bewijs dat hijzelf had geleverd. Newell en Simon probeerden het nieuwe bewijs te slijten aan het Journal of Symbolic Logic maar de redactie weigerde de bijdrage omdat Logic Theorist, opgevoerd als coauteur, van niet-menselijke origine was.

Algoritmen versus heuristiek
Hoe consciëntieus Logic Theorist ook werkte, erg intelligent was het programma niet. De werkwijze was immers niets anders dan een uitputtende trial-and-error, een strategie die ook wel algoritme genoemd wordt. Alle mogelijke transformaties worden op alle mogelijke termen toegepast, waarna gekeken wordt waar het schip gestrand is. Duidelijk mag zijn dat deze werkwijze wellicht bruikbaar is als gewerkt wordt met een klein aantal transformaties en termen maar een algoritmische aanpak raakt ongeschikt als het aantal mogelijkheden toeneemt. Het aantal mogelijke zetten bij schaak is bijvoorbeeld bijzonder groot en het nabootsen van taal zou middels algoritmes werkelijk volslagen onmogelijk zijn.
Newell en Simon werkten een nieuw AI programma uit, de General Problem Solver, dat heuristisch te werk ging: de zoekruimte en het aantal opties werd op strategische wijze ingeperkt. Aan de hand van hardopdenkprotocollen van schakers achterhaalden Newell en Simon strategieën die zij vervolgens verwerkten in de programmatuur. Hierdoor ontstond een doelgerichte werkwijze waarbij de actuele situatie op het virtuele schaakbord vergeleken werd met de streefsituatie, op basis waarvan de te volgen stappen om tot de streefsituatie te komen, werden bepaald. De General Problem Solver was zo geprogrammeerd dat het programma verschillende paden op hun mogelijke merites beoordeelde – leiden deze stappen tot de streefsituatie of raak ik van de wal in de sloot – en alleen de succesvolle paden werden volledig uitgewerkt, waarna het meest efficiënte pad gekozen werd. Deze flexibele manier van probleem oplossen lijkt al veel meer op de menselijke werkwijze dan die van de Logic Theorist.

Externe link
Profiel van Herbert A. Simon
Functionele gelijkheid
Newell en Simon waren van mening dat de General Problem Solver als model kon dienen voor de manier waarop mensen te werk gaan bij het oplossen van problemen. Hoewel zij niet stelden dat het programma een precieze kopie was van het menselijk handelen, voorspelden zij dat het wellicht in de toekomst mogelijk zou zijn een elektronisch brein te creëren dat op dezelfde wijze zou werken als dat van de mens en alleen in materie van het menselijk brein zou verschillen.
Externe link
Biographical Memoirs on Allen Newell
door Herbert A. SimonRond 1960 raakte een uitgangspunt dat ‘computational functionalism’ genoemd werd in zwang. Gesteld werd dat voor een bruikbare AI theorie een fysieke overeenkomst geen noodzakelijke eis was. Een AI theorie met dit uitgangspunt zou gebaseerd moeten zijn op valide functionele overeenkomsten tussen het computermodel en de menselijke werkelijkheid maar zou verder geen uitspraken hoeven doen over de onderliggende mechaniek. Vanuit dit oogpunt zijn architectonisch verschillende apparaten mogelijk die dezelfde ‘vaardigheden’ hebben. Zo konden zowel de rekenmachines van Pascal als die van Leibniz en Babbage optellen en aftrekken maar het onderliggende mechaniek verschilt. Het brein verschilt van deze apparaten slechts in architectuur maar levert vergelijkbare producten die wellicht zelfs op vergelijkbare wijze, dat wil zeggen: via dezelfde stappen, tot stand zijn gekomen. Al deze verschillende apparaten zijn ‘functioneel gelijk’, een claim die er in wezen op neer komt dat de gelijkheid tussen artificiële en ‘natuurlijke’ intelligentie ligt in de software en niet in de hardware.
Nu is dit nog een vrij straffe bewering die nog helemaal niet gemakkelijk te toetsen is. Menselijke redeneerprocessen zijn immers niet zo gemakkelijk te achterhalen. Indien u gevraagd wordt hardop te denken tijdens het oplossen van een probleem, dan zult u merken dat het verwoorden van de strategie die u volgt, van invloed is op het verloop van het oplossingsproces. Ofwel: het denken gaat veel sneller dan het verwoorden waardoor een heleboel denkstappen in het woordelijk verslag worden overgeslagen. Ook zult u proberen een consistent en compleet verslag te creëren en onberedeneerde stappen in uw oplossingsproces voorzien van een logische verklaring. Dergelijke lacunes zal een computerprogramma nooit kunnen bevatten en in dit opzicht is er geen sprake van functionele gelijkheid.
Daarbij zijn mensen zich vaak niet ten volle bewust van de manier waarop ze problemen aanpakken. Als u gevraagd wordt een analogieprobleem op te lossen – bijvoorbeeld “auto staat tot rijden als vliegtuig staat tot …” – dan bent u wellicht in staat een groot deel van de denkstappen met terugwerkende kracht te formuleren. Probeert u echter eens onder woorden te brengen hoe u fietst. Van alle 15 miljoen Nederlanders die kunnen fietsen zijn er maar weinigen die kunnen uitleggen hoe zij voorkomen dat zij met fiets en al omdonderen. Kortom: u bent zich nauwelijks bewust van de vaardigheden die u aanboort tijdens het fietsen. Hoe kunnen we er dan zeker van zijn dat u zich wel volledig bewust bent van cognitieve oplossingsstrategieën?
Mocht een wetenschapper een computer willen leren fietsen, dan zouden verschillende natuurkundige wetten expliciet gemaakt moeten worden en de resulterende programmatuur zal daardoor in verschillende opzichten onvergelijkbaar zijn met de handelswijze van de mens. Hoewel beide kunnen fietsen, zijn zij functioneel verschillend, ofwel: er zijn meerdere wegen die naar Rome leiden.

Sterke versus zwakke AI
In 1980 publiceerde de filosoof John Searle het gedachtenexperiment dat de Chinese kamer genoemd wordt. Stelt u zich voor: u zit in een van de buitenwereld afgesloten kamer en via een luikje worden u papiertjes met in chinees geschreven vragen aangereikt. De tekens zeggen u helemaal niets want u leest geen chinees maar tot uw beschikking staat een omvangrijk naslagwerk waarin u kunt opzoeken welke symbolen een adequate reactie vormen op de u toegeschoven tekst. Uw taak is de juiste reactie bij de ontvangen tekens te zoeken, deze op het papiertje te schrijven en het papiertje vervolgens weer terug te geven. Indien het naslagwerk compleet is en opgesteld is door mensen die wel goed Chinees lezen, zou uw reactie als zinnig en verstandig overkomen ook al heeft u geen flauw benul van de inhoud van deze geschreven conversatie.
Searle argumenteerde dat de persoon in de kamer op precies dezelfde wijze reageert als de computer: de reacties op de ingevoerde symbolen zijn adequaat en syntactisch correct. Echter, net als de computer, zou de persoon in de kamer geen idee hebben van de semantiek. Zoals de computer zelf begrip ontbeert van zijn reacties op input, zo ook heeft de persoon in de Chinese kamer geen idee van de inhoud, dit in tegenstelling tot een Chinees sprekend persoon, die de betekenis van de symbolen begrijpt, waardoor de conversatie inhoudelijk anders van aard wordt.
Interne link
Lees hier over de Turing test
Als het naslagwerk uit de Chinese kamer omgezet zou worden in programmatuur, dan zou de computer zeker de Turing test doorstaan maar, en dat is Searle’s punt, kunnen we dan werkelijk beweren dat de computer ‘intelligent’ is? De computer weet slechts welke symbolen waarop moeten volgen maar de symbolen zijn betekenisloos voor het mechaniek en volgens Searle is het juist dit ondoordacht en begriploos reageren dat een mechanisch brein onderscheidt een menselijk.
Hiermee maakt Searle het onderscheid tussen sterke en zwakke AI. Zwakke AI stelt dat computerprocessen bruikbare modellen kunnen vormen voor menselijke cognitieve processen en daardoor geschikt zijn voor het toetsen van specifieke hypothesen over hoe het menselijk brein zou kunnen werken. Dit is een standpunt waar Searle geen problemen mee heeft. Sterke AI stelt echter dat het mogelijk is werkelijk een computerbrein te bouwen dat functioneel gezien volledig vergelijkbaar is met een menselijk brein, het uitgangspunt dat eerder omschreven werd als ‘computational functionalism’. Het is dit standpunt waartegen Searle ageert. Eenzelfde output garandeert geen gelijke onderliggende processen.

Het onwaarneembare
Searle’s argumentatie valt of staat met de aanname dat de mens in tegenstelling tot de computer wél bewust reageert, begrijpt wat hij doet en dat deze gevoelsstaten niet slechts schijn zijn. Als ik en tekst lees of een vraag beantwoord heb ik inderdaad het gevoel dat ik niet slechts als een robot reageer maar dat mijn gedrag meer is: gepaard gaat gevoelens, gemoedsstaten en intenties. Wat u betreft ben ik daar echter niet zo zeker van.
Als een computer de Turing test op het vlak van de Chinese conversatie doorstaat, dan kan net zo goed een programma geschreven worden dat de computer in staat stelt gevoelens te uiten en intenties te tonen. Misschien is de mens wel net als deze fictieve computer slechts een machine met zo’n affectief programma. Affectie is dan slechts een ingenieus product en de mens een machine voorzien van uiterst complete en complexe programmatuur.
Zoals de behavioristen in de jaren ’40 en ’50 stelden: over dat wat we niet kunnen waarnemen, de geest en zijn werking, kunnen we niets met zekerheid zeggen doch slechts speculeren. Alleen dat wat we zien, het gedrag, is onderzoekbaar en interpreteerbaar. De rest blijft in ‘the black box’ en de vraag is of deze box überhaupt meer bevat dan een compleet codeboek. Het merendeel van de psychologische wetenschappers richt zich desondanks op het onwaarneembare en theoretiseert op basis van het waargenomene over het onzichtbare. Indien echter het waarneembare gedrag van de computer niet meer verschilt van het waarneembare gedrag van de mens, is er dan werkelijk voldoende reden om dezelfde gedragingen een andere achterliggende bron toe te kennen? Is de menselijke geest niet slechts een ‘emergent property’; een eigenschap die een bijproduct is van vernuftige machinerie voorzien van zeer complexe software? De geest is immers een bijproduct van de hersenen, of gelooft u nog steeds dat het lichaam slechts gastheer is van een onafhankelijke geest? En als bij de mens de geest een ‘emergent property’ is, wie garandeert ons dan dat eenzelfde effect niet kan optreden bij de computer? Onder andere bekende filosofen als de eerder genoemde Searle en Daniël Dennett hebben hierover verscheidene boeken geschreven.
In wezen zijn we nu terug bij Descartes’s dualisme, het onderscheid tussen lichaam enerzijds en geest anderzijds. Is de geest het lichaam? Bestaat er geest zonder lichaam? Op wat voor wijze zijn de geest, het bewustzijn, het begrip verbonden met het lichaam, de hardware, de architectuur? En kan de geest niet als ‘emergent property’ opduiken in een computer?

Onlangs vertelde ik een kennis dat mijn werkgever zo vriendelijk was geweest mij een geheel nieuwe computer ter beschikking te stellen. Het ding boezemde mij nogal wat ontzag in: zijn hoofd was groter dan het mijne (ik kreeg een 17” scherm), hij kon sneller redeneren, rekenen, reageren dan ik, hij had een groter geheugen dat nagenoeg onfeilbaar was en hij wist veel meer. En schaken kan ie zeker beter dan ik… Mijn kennis schreef terug: “Vraag hem ten huwelijk en leef lang en gelukkig.” Zou hij me willen hebben denkt u?…

Sofie van der Sluis

About freekje