Kunstig intelligens. Ekspertsystemer. Når en ekspert løser problemer, indgår der ofte en sekvens af handlinger baseret på logisk behandling af information i en bestemt rækkefølge. Medicinske ekspertsystemer (EP) er et eksempel på anvendt kunstig intelligens, som forsøger at formalisere de følgeslutninger, læger foretager, når de stiller diagnoser. Her er udfordringen for EP-ingeniøren at kortlægge de procedurer og slutninger, den medicinske ekspert foretager for at stille en given diagnose. Som led i kortlægningen kan anvendes et rutediagram som vist på figuren. Det illustrerer den information, der skal opnås, og dermed de undersøgelser, der må foretages for at stille en korrekt diagnose og evt. udføre en behandling, hvis en patient har forstørret skjoldbruskkirtel. Indledningsvis foretages en scintigrafi for at undersøge, om der er knuder i kirtlen. Det foregår ved, at kirtlen afbildes efter indsprøjtning af et radioaktivt sporstof, som vil samle sig på forskellig måde alt efter, om der er knuder eller ej, og efter, om eventuelle knuder er varme (stor koncentration af sporstof) eller kolde (ingen koncentration). Fund af en kold knude kræver udelukkelse af kræftsygdom, hvorfor scintigrafien må suppleres med ultralydundersøgelse. Herved kan knuden vise sig at være et uskyldigt væskefyldt hulrum (cyste) eller et fast vævsparti; i dette tilfælde udtages vævsprøve (biopsi), der bringer endelig diagnostisk klarhed. I visse af de tilfælde, hvor kræft kan udelukkes som årsag til forstørrelse af kirtlen, kan det være nødvendigt at supplere undersøgelserne med blodprøver for at afklare, om kirtelforstørrelsen er ledsaget af forhøjet stofskifte; en medicinsk behandling heraf er som regel tilstrækkelig, men kan undertiden kræve en operation, der ikke behøver at være så omfattende som ved kræft i kirtlen. I det viste eksempel er det en forholdsvis overskuelig proces at stille en diagnose, men i mere komplicerede tilfælde er det nemt at begå fejl; tanken med et ekspertsystem er, at det skal tjene som et redskab, lægen kan bruge i beslutningsprocessen, ikke fungere som selvstændig kunstig ekspert.

.

Kunstig intelligens, KI, er computerprogrammer og maskiner, som efterligner et eller flere aspekter af den menneskelige intelligens. Det gælder evnen til abstrakt tænkning, analyse, problemløsning, mønstergenkendelse, sprogbeherskelse og -forståelse, fornuftig handling og lignende. Computerprogrammer der spiller skak, planlægger ruter eller laver talegenkendelse er eksempler herpå.

Kunstig intelligens er også betegnelsen på et tværfagligt forskningsfelt, Artificial Intelligence (AI), hvor man dels udforsker systemer, der kan udvise intelligent adfærd, dels konstruerer disse syntetisk i det omfang, det er muligt, ved udvikling af nye typer programmer og bearbejdning af viden.

Endelig undersøges grundene til, at man måske aldrig kan realisere målet med denne forskning i sin mest ambitiøse form: at efterligne den fulde menneskelige intelligens uden begrænsninger.

Forskningsområdet har rødder i datalogi, kybernetik og symbolsk logik og er desuden forbundet med kognitionspsykologi, kognitionsforskning, robotik og kunstigt liv.

Forhistorie

Den kunstige intelligens' historie er sammenvævet med computerens. Udviklingen af de programmerbare digitale computere efter 2. Verdenskrig betød, at man i princippet havde mulighed for at afprøve en gammel rationalistisk hypotese om den menneskelige tænknings natur, som går tilbage til filosoffer som Thomas Hobbes og G.W. Leibniz.

Deres idé var simpel og radikal; de mente, at al tænkning skyldes virkningen af en indre kalkule (et program). Det vil sige et system af rent mekanisk natur, som processerer en række simple regneenheder eller symboler efter bestemte regler svarende til logikkens regler for korrekt logisk slutning eller aritmetikkens regler for korrekt talbehandling.

Dette forblev længe blot en hypotese. Selv da Charles Babbage i 1820'erne designede sin differensmaskine, en forløber for den moderne computer, var den så indviklet en konstruktion, at den ikke kunne realiseres med den tids teknologi. Men Ada Augusta Lovelace, som arbejdede sammen med Charles Babbage, bemærkede allerede i 1842, at en sådan maskine ikke blot ville kunne behandle tal, men stort set alt, der kunne reduceres til en begrænset mængde symboler. Man kunne altså forestille sig en maskine, der automatisk efter bestemte procedurer udfører instruktioner, som svarer til beregninger, og at disse beregninger ikke blot repræsenterer matematiske problemer, men i det hele taget problemer, der kan underkastes rationel analyse og løses ved logiske slutninger (se inferens).

Historie

I første halvdel af 1900-tallet udvikledes grundlaget for kunstig intelligens og informationsteknologi generelt i form af særlige sammenkoblinger mellem teorier om tænkning, logik, automatik, formelle sprog og matematik. Man nåede frem til en afklaring af, hvad det præcis vil sige, at et problem er beregneligt efter en mekanisk procedure, bl.a. gennem Alan M. Turings model fra 1936 af en abstrakt maskine, Turingmaskinen, der kunne udføre enhver udførbar beregning. Alfred Tarski viste, hvordan man kunne konstruere en matematisk semantik for formelle sprog. Kurt Gödel påviste sammenhængen mellem bevis, sandhed og logisk følge. Claude Shannon viste i 1938, at elektriske kredsløb kan implementere alle operationer i boolesk logik, og efter 1945 udvikledes von Neumann-computeren (opkaldt efter matematikeren John von Neumann), den moderne serielle computer.

Alt dette var forudsætninger for den bro, man forestillede sig, AI skulle bygge mellem det tankemæssige, man ellers havde opfattet som noget rent immaterielt, og det maskinelle, som ofte ansås for noget rent fysisk og åndløst. Ligesom konstruktionen af regnemaskiner lignede et eksistensbevis på, at en bestemt sektion af den menneskelige tænkning, nemlig talbehandling, kunne mekaniseres, så kunne man forestille sig, at intelligent tænkning dybest set havde form af en indre og ubevidst kalkule eller et "tankesprog", som kunne opdages, og som indeholdt en nøje defineret grammatik af rent syntaktiske regler, herunder de logiske regler for gyldige ræsonnementer. Tænkte mennesket på basis af et sådant logisk-matematisk opbygget tankesprog, og lod dette sig finde, kunne man implementere det i en maskine, så dens processer kunne behandle de repræsenterede tanker ved hjælp af dette sprogs syntaktiske regler.

Som et egentligt forskningsfelt, hvor man begyndte at præcisere denne formodning i forsøget på at konstruere intelligente systemer, begyndte AI først omkring 1955. Tre faktorer er helt essentielle for idéen om tænkning som en art indre formelt sprog:

1) De enkelte tankeelementer antages at være ordnet i en kombinatorisk syntaktisk struktur (en grammatik). Det vil sige, at den består af veldefinerede arrangementer; elementerne svarer til ord, arrangementerne til sætninger, men det antages ikke, at de ligner kendte ord eller sætninger.

2) Indholdet af tankeelementerne, det, de betyder, er systematisk bestemt ved deres sammensætning. Betydningen er kompositionel, på samme måde som betydningen af en sætning i store træk kan ses som fastlagt af dens grammatik og betydningen af de enkelte ord.

3) Endelig er tankerækkerne, den intelligente proces, specificeret alene af syntaktisk fastlagte regler; dvs. de kan udføres af mekanismer, der kun styres af formel syntaks. Semantikken, dvs. indholdet eller meningen, antages at følge med af sig selv. Her ligger analogien med bevisteori: Et arguments formelle gyldighed afgøres alene af, om det følger formelt gyldige slutningsregler. Hvis dette er opfyldt, vil sandheden af de oprindelige præmisser bevares i nye, afledte sætninger.

I sidste halvdel af 1950'erne udviklede man på basis af disse idéer de første programmer, der kunne spille skak eller bevise matematiske teoremer, dvs. maskiner, der løste problemer ikke blot ved beregning, men ved logisk deduktion. Blandt de forskere, der fra begyndelsen tegnede AI, var trioen Allen Newell (1927-92), J. Cliff Shaw (1922-91) og Herbert A. Simon, som på den første AI-konference i 1956 præsenterede et logikprogram, der skulle løse problemer ved at lede i et søgerum af mulige løsninger, hjulpet af visse tommelfingerregler, samt John McCarty (1927-2011) og Marwin Minsky (1927-2016), der sammen grundlagde AI-Laboratoriet ved MIT, USA, i 1958.

Det blev fra begyndelsen debatteret, hvorvidt det, de tidlige AI-programmer kunne udføre, virkelig var "intelligent". Alan M. Turing foreslog allerede i 1950 Turingtesten, oprindeligt under navnet efterligningsspillet (the imitation game), som operationelt kriterium for, om en maskine kunne opføre sig intelligent: Maskinen består testen, hvis en person, som må udspørge maskinen og et andet menneske om hvad som helst, ikke kan afgøre om svaret kommer fra maskinen eller mennesket. Der var bred enighed blandt forskere, inklusiv Turing, om at Turingtesten ikke var et brugbart kriterium for, om AI-programmer faktisk var intelligente eller kunne tænke.

Moderne sprogmodeller som GPT kommer ofte tæt på at kunne bestå Turingtesten.

Symbolparadigme og det konnektionistiske paradigme

Man kan groft skelne mellem to forskellige forskningsprogrammer i AI svarende til to opfattelser af intelligensens struktur: Det klassiske symbolparadigme og det konnektionistiske paradigme, der har rødder tilbage til kybernetikken.

Ifølge symbolparadigmet må tænkning forstås som logisk manipulation med symboler efter bestemte regler. Tilsvarende må et AI-system beskrives på flere hierarkiske niveauer af information: fra den basale maskinkode, der er repræsenteret ved hjælp af rent fysisk hardware, over programmeringssprogets beskrivelse af den måde, informationen repræsenteres og behandles på, til selve det overordnede semantiske og intentionelle niveau (videns- eller meningsniveauet), hvor systemets hensigtsmæssige og rationelle kompetence angives.

Det konnektionistiske paradigme er især blevet udviklet i 1980'erne og har siden 2010’erne oplevet fornyet opmærksom; ofte under navnet dyb læring (deep learning). Man taler her om distribuerede systemer for at understrege, at databehandlingen i princippet sker parallelt i et netværk af mange regneenheder og ikke serielt i én central enhed som i et klassisk AI-system. Ved hjælp af neurale netværk modelleres "intelligent adfærd" som et hensigtsmæssigt forhold mellem input- og outputsignaler til det kunstige netværk af "nerveceller". Det vil sige beregningsenheder med mange forbindelser, hvis indbyrdes styrke kan modificeres gennem træning mod et kendt datasæt.

Fremkomsten af computer hardware baseret på brug af grafikprocessoren (graphical processing unit, GPU) til at accelerere den distribuerede beregning har været en vigtig medvirkende faktor for “dyb læring-revolutionen”. Det har vist sig, at opskalering af beregningskraft, datamængden og størrelsen af det neurale netværk ofte leder til drastisk bedre AI-løsninger.

Inden for dette paradigme udforskes ofte opgaver, som indebærer en form for mønstergenkendelse, -indlæring, og -kategorisering, fx af ansigter (mand eller kvinde?) eller røntgenbilleder (rask eller syg?). Disse systemer er ofte populære i de dele af AI, der tilstræber psykologisk realisme (jf. kognitionsforskning) og arbejder med problemer med vage kategorier.

Det klassiske symbolparadigme viderefører en rationalistisk opfattelse af tænkning som funderet i en på forhånd given logisk og sekventiel struktur (det indre tankesprog eller lignende). Det konnektionistiske paradigme svarer mere til den empiristiske opfattelse i filosofien, hvor tænkning er erfaringsbaseret, og hvor tankernes indhold langsomt opbygges og afspejler det ofte billedagtige mønster, der måtte vise sig i de simple input af sansning, som tilføres kroppen eller maskinen.

Symbolparadigmet egner sig godt til at løse problemer, som har en velforstået struktur, der tillader effektiv løsning. Et eksempel er ruteplanlægning, hvor vejnettet kan ses som en graf, som man ved hjælp af kendte grafalgoritmer effektivt kan finde den korteste vej igennem. Neurale netværk er velegnede til opgaver, hvor træningsdata er til rådighed. Til mere komplekse problemer, der kræver planlægning, såsom at lære at spille skak, kan man kombinere de to paradigmer, således at et neuralt netværk lærer at spille, og en symbolsk algoritme bliver brugt til at understøtte læring og inferens ved effektivt at afsøge de mest lovende træk. Det er et åbent spørgsmål, hvorvidt det konnektionistiske paradigme har fundamentale begrænsninger, fx kan lære nok fra naturlig tekst til at kunne bestå Turingtesten.

For begge paradigmer gælder, at de systemer, der konstrueres, altid løser specialiserede problemer og sjældent efterligner et menneskes måde at løse en opgave på. AI-teknikker spiller en stor rolle i udvikling af informationsteknologi, og meget forskning er i dag drevet af store teknologivirksomheder. AI spiller desuden en stor rolle i mange aspekter af naturvidenskabelig og teknisk forskning og i industriel produktion og processtyring. Kunstig intelligens ses som vigtigt strategisk område i stormagtsrivaliseringen mellem USA, Kina, Europa og Japan.

Forskningsområder

Emnerne i AI-forskning er overlappende. Gennemgående er temaer som vidensrepræsentation, søgning (fx efter information generelt eller gode træk i spil), kontrol samt indlæring. Man har fx søgt at modellere opdagelse af matematiske begreber i programmer som AM (Automated Mathematician) fra slutningen af 1970'erne, et AI-system, der dels oplagrede et sæt tommelfingerregler, heuristikker, om opdagelse og vurdering af matematiske begreber, dels repræsenterede de basale begreber fra mængde- og talteori.

En stor del af forskningen i AI har beskæftiget sig med at finde heuristiske procedurer for at indfange det aspekt ved rationel tænkning, der ikke beror på ubrydelige regler eller gennemgang af enhver tænkelig mulighed, hvad der ofte fører til "kombinatorisk eksplosion", og heller ikke på blind tilfældighed, men en art hensigtsmæssige tommelfingerregler for valg af næste skridt. Det viser sig ofte uhyre vanskeligt at indlejre en sådan type rationel sensibilitet, fx matematikerens evne til at generalisere begreber og til at indse, hvor dette ikke er muligt. Denne indsigt omfatter tilsyneladende mere, end hvad man kan indlejre som regler i et automatisk system. Hypotesen i klassisk AI, hvorefter intelligens skulle svare til at besidde en stor database samt et sæt logiske slutningsregler, forekommer dermed utilstrækkelig, da intelligens i så fald reduceres til logicitet.

Det er imidlertid langtfra umuligt at bruge AI-systemer som støtte for menneskelige beslutninger inden for begrænsede felter som spil, rumudnyttelse ved lastning af skibe, tidsskemalægning i virksomheder og lignende. Men hvor de rent deduktive systemer i matematik og logik er monotont voksende (dvs. ekspanderende; de forkaster aldrig viden), er mennesker ikke-monotone. Vi reviderer hele tiden meninger under indtryk af forandring og nye erfaringer.

Mange af begrænsningerne ved de tidlige AI-systemer har inspireret nye forskningsområder, fx alternative former for ræsonneren, såsom ikke-monotone logikker, fuzzy logic, og kausale, rumlige og tidslige former for ræsonneren. Det er alt sammen områder, hvor formalisering af de menneskelige kompetencer er langt vanskeligere.

Et stort forskningsfelt er sprogsystemer, som kan udføre talegenkendelse, tekst-til-tale-generering og automatisk oversættelse. Et problem er her, at pålidelig oversættelse synes at forudsætte forståelse. Menneskers brug af naturligt sprog baserer sig nemlig ikke kun på formelle regler, men også på situationsforståelse og viden, ikke bare om sprogets syntaks, men også om indhold (semantik) og den videre mening i brugen af forskellige udtryk.

Syn (vision) er et selvstændigt AI-felt, der bl.a. omfatter forskning i linje- og teksturdetektion, dybdesyn, objektgenkendelse, mønstergenkendelse i billedbehandling og sensomotorisk kontrol i robotter. Såkaldt autonome agenter, ofte modelleret over insekters bevægelsesmåde, er et felt, hvor AI grænser op til kunstigt liv.

Dyb læring-revolutionen

Siden 2011 har kunstig intelligens drevet af dyb læring gjort store fremskridt. I 2018 fik de tre neurale netværk-forskere Yoshua Bengio (f. 1964), Geoffrey E Hinton (f. 1947) og Yann LeCun (f. 1960) datalogiens største pris A. M. Turing-prisen. De modtog prisen for deres grundlæggende bidrag til kunstig intelligens, der har gjort disse gennembrud mulige.

Nedenfor er en liste med årstal og emner:

2011: Mønstergenkendelse

AlexNet-artiklen, der er opkaldt efter førsteforfatteren til artiklen Alex Krizhevsky, indvarslede gennembruddet for dyb læring. Artiklen viste, at et foldning-basereret neural netværk (convolutional neural network) kunne løse billedklassifikation bedre end alle eksisterende maskinlæringsløsninger. Maskinlæringsløsninger før AlexNet brugte ofte førbehandling af data (feature engineering). I dag trænes maskinlæringssystemer oftest på data uden førbehandling (ende til ende). Teknologien bruges i dag på internettet til billedsøgning og automatiseret fjernelse af uønsket indhold og til synsdelen af AI-systemer til selvkørende biler.

2012: Talegenkendelse

Talegenkendelse, tale til tekst, har været et aktivt forskningsområde siden 1970’erne. Indtil 2012 hvor rekursive neurale netværk tog over, var skjulte Markov-modeller den foretrukne model.

2014: Maskinoversættelse

Maskinoversættelse har været et aktivt forskningsområde siden computerens fremkomst i 1950’erne. Rekursive og Transformer (2018) neurale netværk, der er trænet på store mængder data, ligger bag de metoder, der i stort omfang bruges i dag.

2015: AI-agenter for spil

Forskere fra det Google-ejede forskningsfirma DeepMind demonstrerede i 2015, at de kunne bruge den samme selvforstærkende læringsmetode (reinforcement learning) til at få en AI-agent til at lære at spille en række klassiske Atari-spil som Breakout.

I 2015 blev selvforstærkende læring anvendt på brætspillet Go. Go er et komplekst spil at analysere matematisk, idet antallet af måder, man kan rykke på, er stort, og det derfor ikke er muligt at regne mange skridt frem. DeepMinds AlphaGo-metoden slog verdensmesteren i Go Lee Sedol (f. 1983) i 2016.

AlphaZero (2017) lærer fra tabula rasa ved at spille mod sig selv. AlphaZero er i dag det bedste system til at spille skak, Go og Shogi. På trods af megen forskning har det vist sig svært at gentage disse fremskridt for selvforstærkende læringsalgoritmer i mere komplekse miljøer.

2018: Sprogmodeller

ChatGPT brugt til at løse Pythonprogrammeringsopgaver
ChatGPT brugt til at løse Pythonprogrammeringsopgaver. ChatGPT tilgået 30-12-2022.
ChatGPT brugt til at løse Pythonprogrammeringsopgaver
Licens: CC BY SA 3.0

Sprogmodeller bruges til at analysere statistiske sammenhænge med tegn i tekst og er et vigtigt emne i naturlig tekstanalyse (natural text processing).

BERT (Bidirectional Encoder Representations from Transformers), udviklet af forskere fra Google, er en metode til at repræsentere tekst som vektorer, der indeholder semantisk information. Det har forbedret anvendelse af maskinlæring på tekst, fx søgemaskiners evne til at finde relevant indhold for søgninger, som er formuleret i naturligt sprog.

GPT (Generative Pre-trained Transformer) fra AI-firmaet OpenAI er en sprogmodel, der kan skrive tekst baseret på et tekstinput. Disse såkaldte generative sprogmodeller kan ses som en videreudvikling af generativ grammatik, hvor man træner et neural netværk til at forudsige det næste ord ud fra en kontekst. Derved kan man uddrager de statistiske sammenhænge i naturlig tekst, snarere end at prøve at formulere eksplicitte grammatiske regler. Den seneste udgave GPT-3 (2021), der er blevet populariseret gennem varianten ChatGPT (2022), har tiltrukket sig megen opmærksomhed for dens evne til at:

  • skrive tekst som er meget lig tekst skrevet af mennesker om næsten ethvert emne
  • finde på usandheder (hallucinere)
  • besvare eksamensopgaver ganske overbevisende.

GPT er blevet indbygget i en række computerprogrammer, fx Codex (2021), der kan assistere med at skrive computerkode.

2018: Proteinfoldning

Proteinfoldning, dvs. at forudsige et proteins tredimensionelle struktur ud fra aminosyresekvensen, har været en af biologiens store udfordringer, siden de første proteinstrukturer blev eksperimentelt fastlagt i 1950’erne.

I 2018 og 2020 deltog DeepMind med deres computerprogrammer AlphaFold og AlphaFold 2 i konkurrencen CASP (Critical Assessment of Structure Prediction). Konkurrencen handler om at forudsige proteinstrukturer. AlphaFold 2 har en nøjagtighed, som er sammenlignelig med den, man ser i traditionel strukturbestemmelse gennem eksperimenter. Efterfølgende har DeepMind i samarbejde med European Bioinformatics Institute offentliggjort AlphaFold Protein Structure Database med 200 millioner forudsagte proteinstrukturer.

Denne type computerprogrammer vil i de kommende år få stor indflydelse på den farmaceutiske og bioteknologiske udvikling.

2021: Billedgenerering

DALL·E genereret billede
DALL·E genereret billede ved brug af prompten "A painting of the evolution of artificial intelligence from the 1956 Dartmouth Summer Research Project on Artificial Intelligence until today". DALL·E tilgået 29-12-2022.
DALL·E genereret billede
Licens: CC BY SA 3.0

Billedgenerering med stor variation ud fra en tekstinstruktion er blevet muliggjort af træning af neural netværk-modeller, der er baseret på op i mod en milliard offentligt tilgængelige billeder med tilhørende billedtekst. De mest kendte programmer er DALL·E (2021) og DALL·E 2 (2022) fra OpenAI, men mange andre er blevet offentlig tilgængelige.

Programmer, der kombinerer sprog-, tale- og billedmodeller vil generere nye anvendelser for AI og potentielt skabe endnu mere virkelighedstro deepfake.

Læs mere i Den Store Danske

      .

Kommentarer

Kommentarer til artiklen bliver synlige for alle. Undlad at skrive følsomme oplysninger, for eksempel sundhedsoplysninger. Fagansvarlig eller redaktør svarer, når de kan.

Du skal være logget ind for at kommentere.

eller registrer dig