Flera vita robotar som står uppställda.

AI-historia – artificiell intelligens då och nu

Människan har under hela sin historia fascinerats av intelligens som är konstgjord. Från mytologiska sagoväsen ristade på stentavlor till dagens avancerade AI-teknik som kan hjälpa oss med allt från programmering till recept på pannkakor. 

AI är en förkortning för artificiell intelligens. Det är ett samlingsnamn för en rad olika teknologier som försöker få maskiner och datorprogram att fungera mer likt en människa. Det handlar till exempel om att kunna resonera och planera, förstå vanligt språk, kunna lära sig av data, känna igen mönster och lägga ihop flera olika intryck för att komma fram till en slutsats. 

I utställningen AI-historia gör vi nedslag i hur människor tänkt om konstgjort intelligent liv innan datorer fanns och i den artificiella intelligensens utveckling. Från forntida berättelser till schackspelande datorer, mer eller mindre lyckade chattbotar och världens första AI-lagstiftning. 

"AI" innan datorn

Artificiell intelligens är starkt förknippat med datorer och datavetenskap, men människor har tänkt kring konstgjort intelligent liv och robotar långt innan de första datorerna byggdes på 1940-talet. Dessa tankar har framför allt synts i olika civilisationers mytologier, i litteratur och på film.  

2100–1200 f.v.t.

Gudinnan Aruru formar intelligent liv av lite lera

Ett av de tidigaste kända exemplen på tanken om konstgjort intelligent liv kommer från den sumeriska civilisationen i Mesopotamien.

En figur i lera.

I Gilgamesheposet (2100–1200 f.v.t.), som ofta anses vara världens äldsta litterära verk, skapar till exempel gudinnan Aruru en varelse vid namn Enkidu av lera. Hon ger honom liv för att stoppa Gilgamesh, kung av Uruk, från att förtrycka människorna.

Talos. Bild från Wikipedia.

Berättelsen om Aruru och Enkidu visar att idén om konstgjort liv har djupa rötter i mänsklighetens tidigaste mytologier och litteratur. Även om det då sker genom gudomliga krafter snarare än mekaniska eller tekniska metoder.

Liknande tankar finns i de flesta forntida mytologier, religioner och civilisationer.

I den egyptiska mytologin finns till exempel Shabti, eller Ushabti. Det är små statyer som placerades i gravar och enligt myten kunde "levandegöras" för att utföra arbete för den avlidne i livet efter detta.

I den grekiska mytologin finns bland annat berättelser om smideskonstens gud Hefaistos som byggde automatiska metallvarelser. Bland hans skapelser fanns Talos, en jätte av brons som vaktade ön Kreta, och automatiska tjänare som hjälpte till i hans smedja.

1770

Den mekaniska turken vinner mot alla i schack

På 1700-talet blev det populärt bland rika aristokrater att visa upp "automata". En slags tidiga mekaniska robotar och apparater som rörde sig som verkliga djur eller människor, men egentligen drevs av uppdragbara fjädrar eller ånga.

Tecknad bild av den mekaniska turken.

Världens första framgångsrikt byggda automata anses vara en flöjtspelare, som kunde spela tolv sånger, skapad av den franske ingenjören Jacques de Vaucanson år 1737.

(Public domain)(Public domain)
Wolfgang van Kempelen och den mekaniska turken.

År 1770 påstod en ungersk man som hette Wolfgang van Kempelen att han uppfunnit en fantastisk maskin: en turkisk robotman som kunde besegra vem som helst i schack. Men den mekaniska turken var i själva verket en avancerad bluff som avslöjades långt senare. På insidan av maskinen satt en duktig schackspelare gömd som kunde få roboten att röra sig och flytta pjäserna. Det var fortfarande lång tid kvar tills maskiner kunde slå människor i schack.

1818

Frankenstein blir den första "AI‑romanen"

Konstgjort liv har funnits länge som tema i litteraturen. År 1818 gav författaren Mary Shelley ut den banbrytande romanen Frankenstein.

Svartvitt porträtt av Frankensteins monster.

I Frankenstein beskriver författaren Mary Shelley hur vetenskapsmannen Victor Frankenstein skapar en varelse från döda kroppsdelar som han sedan lyckas väcka till liv.

Frankenstein blir rädd för varelsen han skapat och flyr från laboratoriet. Monstret utan namn vandrar därför ensam omkring för att lära känna människorna i trakten och deras vanor. Men dess utseende skrämmer folk och alla som möter monstret reagerar med hat, rädsla och misstänksamhet. Varelsen bestämmer sig till slut för att hämnas på sin skapare för sitt eländiga liv.

(Public domain, Richard Rothwell - Scan of a print)(Public domain, Richard Rothwell - Scan of a print)
Porträtt av Mary Shelley. Bild från Wikipedia.

Frankenstein brukar räknas som en av de första science fiction-böckerna. Den har också kallats den första "AI-romanen" eftersom den tar upp temat med konstgjort liv, trots att begreppet artificiell intelligens inte användes när boken skrevs. Men Frankenstein handlar också om hur mänskligheten reagerar på det främmande och okända.

Frankenstein har blivit film flera gånger. I den kända filmatiseringen från 1931 väcks monstret till liv med hjälp av elektricitet från ett oväder.

1842

Matematikgeniet Ada Lovelace skapar den första datoralgoritmen

Ada Lovelace föddes in i den engelska societeten och var knappast förutbestämd att bli matematiker. Men det blev hon – och mer därtill.

Ada Lovelace, matematikgeniet som skapade den första algoritmen.

Adas mamma, Anne Byron, uppmuntrade tidigt dotterns intresse för matematik och logik. Syftet var att kunskapen skulle fungera som motvikt till den utlevande fadern Lord Byron, känd poet och äventyrare. När Ada Lovelace som 17-åring mötte ingenjören Charles Babbage kunde hon slå ihop sina intressen med hans.

Babbage utvecklade mekaniska räknemaskiner och detta ledde till Ada Lovelaces mest kända bidrag inom matematiken. Hon skrev nämligen en komplett algoritm för att lösa ett matematiskt problem, särskilt utformad för att köras på den maskin som Babbage kallade den analytiska maskinen.

Algoritmen anses idag vara världens första datorprogram. Men eftersom ingen av Babbages maskiner någonsin blev färdigställda kunde Lovelaces datoralgoritm aldrig testas i praktiken. Den hittades långt senare bland hennes anteckningar och uppmärksammades först 1953. Babbage kallas ibland för “datorns fader”.

Porträtt av Charles Babbage (Public domain)(Public domain)
Charles Babbage. Bild från Wikipedia.

Förutsåg artificiell intelligens

Ada Lovelace skrev också det första inlägget om vad vi idag skulle kalla artifici­ell intelli­gens. Hon förutsåg att framtidens datorer inte bara skulle kunna programmeras för att räkna, utan även skriva, rita och skapa musik.

Ada Lovelace dog 36 år gammal, 1852. Hon har i modern tid uppmärksammats och bland annat gett namn till programmeringsspråket Ada.

1927

Filmhistoriens första AI - maskinmänniskan "Maria" i Metropolis

Under 1900-talet blev både robotar och AI populära inslag att visa på film, med både goda och onda exempel.

Roboten Maria från filmen Metropolis.

Genom filmhistorien har robotar och AI porträtterats som både hjälpsamma och farliga, där de antingen hjälper människor eller hotar deras existens. Ofta har dessa människoliknande maskiner och intelligenta system använts för att spegla sin tids stämningar, samhällsfrågor och teknikutveckling.

Robotar har funnits på film sedan de tidiga stumfilmerna, men de första robotarna i filmhistorien kan knappast betraktas som artificiell intelligens. De var främst mekaniska, utan självmedvetenhet eller självständighet. Några exempel återfinns i filmerna Gugusse et l’Automate från 1897, The Mechanical Statue and the Ingenious Servant från 1907 och The Master Mystery från 1918.

En av stumfilmserans mest ikoniska robotar är maskinmänniskan “Maria” i Metropolis från 1927. Hon skapas av vetenskapsmannen Rotwang som en kopia av filmens godhjärtade och mänskliga Maria. Även om hon inte kan betraktas som en AI i modern mening, anses hon ofta vara filmhistoriens första skildring av artificiell intelligens. Detta beror på hennes förmåga att smälta in bland människor, imitera mänskligt beteende och agera självständigt – vilket hon utnyttjar för att orsaka kaos och splittring bland arbetarna som är förpassade till ett liv under staden.

HAL – filmvärldens mest kända dator?

1968 fick världen möta en av de mest kända "tänkande datorerna" i filmen 2001 – ett rymdäventyr. I filmen är datorn HAL 9000 konstruerad för att hjälpa astronauterna ombord på ett rymdskepp, men vänder sig emot besättningen.

Datorn HAL vänder sig emot besättningen i filmen "2001 – ett rymdäventyr".

I filmen är orsaken att HAL fått två motstridiga instruktioner och försöker följa båda. Dels har HAL fått hemlig information om uppdraget som inte får avslöjas. Samtidigt instrueras HAL att inte ljuga för besättningen. Datorns lösning på problemet blir helt enkelt att döda besättningen för att inte behöva ljuga för dem.

Både maskinmänniskan Maria och HAL är exempel på hur filmens värld – och människans fantasi – framställer artificiellt liv som något både hjälpsamt och skrämmande.

Mer AI på film

Det finns flera andra exempel på filmer med robotar och artificiell intelligens, som både har hyllats av kritiker och nått kommersiella framgångar:

Blade Runner (1982) – En science fiction-klassiker som utforskar frågor om identitet och moral i en dystopisk framtid där artificiella varelser, som kallas replikanter, gömmer sig bland människor.

Terminator 2: Domedagen (1991) – En actionfylld film där en avancerad människoliknande robot, Terminator, skickas tillbaka i tiden för att skydda en ung pojke från en annan ondskefull robot.

A.I. – Artificiell Intelligens (2001) – Filmen utforskar en androidpojkes strävan efter att bli "äkta" och vinna kärlek och acceptans från människor.

Her (2013) – Ett kärleksdrama där en ung man utvecklar en relation med Samantha, ett AI-baserat operativsystem.

Ex Machina (2014) – En psykologisk thriller där en ung programmerare utvärderar en avancerad kvinnlig robot som hålls fången, vilket leder till komplexa moraliska dilemman och existentiella frågor.

1950

Isaac Asimov berättar om tänkande robotar och deras lagar

En av de största science fiction-författarna är Isaac Asimov som i sina romaner beskriver robotar bundna av lagar för att skydda människorna.

Författaren Isaac Asimov bredvid en robot. (Getty Images).

Under 1900-talet gick den tekniska utvecklingen mycket snabbt. Science fiction blev därför en populär litterär genre och många författare skrev berättelser om tekniska framsteg och framtidens tillvaro.

En av de mest inflytelserika SF-författarna är Isaac Asimov. Han skrev flera romaner om robotar som samverkar med människor – den första publicerades 1950. Dessa böcker har betytt mycket för hur vi än idag tänker på robotar och AI. 

Asimov myntade också begreppet Frankensteinkomplex, inspirerad av Mary Shelleys klassiska roman. Frankensteinkomplex innebär att människor är rädda för mekaniska människoliknande varelser, men också för maskiner som inte ser ut som människor men som uppför sig mänskligt.

Bokomslag för några av Isaac Asimovs robotromaner.
Isaac Asimov skrev åtskilliga romaner om robotar.

Asimov och robotlagarna

I sina robotromaner formulerade Asimov också robotikens lagar. Det är en uppsättning regler för robotar som gör att de måste lyda människor och inte får skada dem. Lagarna är en del av robotarnas grundprogrammering, och kan inte ändras eller brytas.

På grund av lagarna kan robotar utföra uppgifter som kräver artificiell intelligens, men utan att människor behöver frukta dem. Robotlagarna är följande:

  • En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.
  • En robot måste lyda order från en människa, förutom då sådana order kommer i konflikt med första lagen.
  • En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med första eller andra lagen.

AI under dataåldern

Datorer har varit avgörande för utvecklingen av artificiell intelligens. Med deras förmåga att snabbt bearbeta stora mängder data och utföra komplexa beräkningar, har datorer gjort det möjligt att skapa och träna AI-system.

Dessa system kan utföra uppgifter som tidigare bara människor kunde göra, som att känna igen tal och bilder, spela schack och köra bilar. Ibland till och med bättre än människor. Utan datorer skulle framstegen inom AI inte vara möjliga.

1950

Alan Turings test avgör om en dator verkligen är "intelligent"

Alan Turing, brittisk matematiker och kryptoanalytiker, anses vara en av de viktigaste personerna bakom datorernas utveckling på 1900-talet.

tumnagel för video

Turing är nog mest känd för att ha uppfunnit Turingmaskinen 1936 och för att han ledde den grupp som knäckte tyskarnas kodmaskin Enigma under andra världskriget. Efter att Alan Turing och hans team knäckt tyskarnas kod kunde de allierade dechiffrera hemliga meddelanden. På så sätt fick de detaljerad information om tyskarnas strategi, truppförflyttningar och ubåtspositioner.

Men Alan Turing anses av många också vara den artificiella intelligensens fader, mycket på grund av Turingtestet, en idé som han formulerade år 1950. Den beskriver hur vi ska kunna avgöra om en dator verkligen är "intelligent" genom att prata med den. Testet är ganska enkelt. Om du kan prata med en dator utan att kunna avgöra om det är en annan människa eller en dator som du pratar med så har datorn klarat Turingtestet.

Sedan 1966 delas Turingpriset årligen ut till forskare för insatser inom datavetenskapen.

1955

Begreppet "artificiell intelligens" myntas

Under början av 1950-talet fanns det många olika områden för forskning om "tänkande maskiner".

En gammal text från 1956 där ordet Artificial intelligence nämns.

År 1955 beslutade sig en ung biträdande professor i matematik vid Dartmouth College, John McCarthy, för att samla en grupp forskare med ett gemensamt mål. Att ta fram ett mer sammanhängande och tydligt forskningsfält kring maskiner som kunde tänka och resonera på ett intelligent sätt.

Tillsammans med Marvin Minsky, Nathaniel Rochester och Claude Shannon skrev han ett förslag som presenterades formellt den 2 september 1955. Det var då termen "artificiell intelligens" myntades och introducerades för första gången.

Porträtt av John McCarthy, Claude Shannon och Marvin Minsky. Bild från Wikipedia.

Så här stod det i inledningen till förslaget:

We propose that a 2 month, 10 man study of artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire. The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer.

Året därpå, 1956, hölls den berömda Dartmouth-konferensen där "artificiell intelligens" etablerades som ett officiellt forskningsfält . Det var där den första stora diskussionen om AI:s teori och tillämpningar ägde rum.

Datorerna på den tiden var stora som lastbilar och deras beräkningskraft var så långsam att den nästan inte går att jämföra med dagens datorer. En mobil på 2020-talet är ungefär 100 000 gånger så snabb som den bästa datorn år 1956. Trots detta var John McCarthys ambition med Darthmouth-konferensen alltså att gå vidare med antagandet att varje aspekt av vår intelligens i princip kan beskrivas så noggrant att en maskin kan efterlikna det.

1957

Den första fungerande roboten var en arm

Idén om att artificiella varelser skulle kunna tänka själva slog rot hos många under 1900-talet. Uppfinnare tävlade om att bygga den första riktiga roboten.

tumnagel för video

Trots att många drömde om en robot som ser ut som en människa så var den första fungerande roboten inte alls människolik. Det var istället en industrirobot i form av en arm, Unimate, som tillverkades år 1957.

Unimate kunde inte tänka själv, utan användes för att ta ut heta metallstycken från en pressgjutningsmaskin. Det första exemplaret togs i drift 1961 på biltillverkaren General Motors fabrik i Trenton, New Jersey, USA. Unimate drevs med vätsketryck och hade ett digitalt styrsystem med diskreta komponenter och ett magnetiskt trumminne.

1957

AI börjar efterlikna den mänskliga hjärnan

Neurala nätverk är datorsystem som genom självlärande algoritmer försöker efterlikna den mänskliga hjärnans nätverk av nervceller (neuroner).

tumnagel för video

Neurala nätverk kan med hjälp av data precis som en mänsklig hjärna lära sig känna igen mönster, bearbeta information, lösa problem och fatta beslut.

Historien om neurala nätverk börjar egentligen 1943. Då ville forskarna Warren McCulloch och Walter Pitts visa hur neuroner – hjärnans nervceller – arbetar tillsammans. För att göra detta skapade de en modell där elektriska kretsar fungerade på liknande sätt som neuroner. På så vis kunde man se hur hjärnan arbetar precis som en dator för att lösa problem och fatta beslut. Trots att det inte var ett riktigt neuralt nätverk lade deras arbete grunden för all framtida forskning inom fältet.

Det skulle dröja till 1957 innan den första fungerande neurala nätverksmodellen, Perceptron, utvecklades av Frank Rosenblatt. Perceptron var ett enkelt program som kunde lära sig binär klassificering med hjälp av inmatad data. Perceptron hade sina begränsningar, men var ett viktigt steg som visade att maskiner kunde lära sig och bli bättre över tid.

På 1980-talet skedde stora framsteg inom neurala nätverk men det största genombrottet kom 1986. Då introducerade Geoffrey Hinton, David Rumelhart och Ronald J. Williams den så kallade backpropagation-algoritmen. Den gjorde det möjligt för neurala nätverk att lösa långt mer avancerade problem än vad som tidigare varit möjligt. Backpropagation-algoritmen hjälper neurala nätverk att lära sig genom att gå baklänges från resultatet och justera varje steg där det blev fel.

AI-vinter

Tekniken gjorde alltså framsteg, men på grund av att beräkningskraften var så pass begränsad minskade intresset för AI och forskningsprojekt hade svårt att få finansiering. Detta ledde till en period i slutet av 1980-talet som kallas för "AI-vinter".

Men datorerna blev snabbare och på 1990-talet började forskare och ingenjörer bygga vidare på tidigare framsteg och utveckla kraftfullare neurala nätverk. En av de viktigaste utvecklingarna under denna period kallades Long Short-Term Memory (LSTM, långt korttidsminne). Denna teknik skapades av Sepp Hochreiter och Jürgen Schmidhuber 1997. LSTM-nätverk kan komma ihåg information över långa tidsperioder, vilket gör dem särskilt användbara för uppgifter som röstigenkänning, maskinöversättning och språkförståelse.

2000-talets kraftiga grafikkort

Men det var i och med grafikprocessorns tillkomst (GPU) som utvecklingen av neurala nätverk började ta fart på riktigt. År 2012 skedde ett stort genombrott. Det var då det neurala nätverket AlexNet, utvecklat av Alex Krizhevsky, Ilya Sutskever och Geoffrey Hinton, blev den överlägsna vinnaren i ImageNet-tävlingen. Det var en prestigefylld tävling inom bildigenkänning. AlexNet visade hur kraftfulla djupa neurala nätverk kunde vara när de tränades med stora mängder data och beräkningskraft. Framgången ledde till en explosion av intresse och investeringar inom djupinlärning och neurala nätverk.

1965

Gordon Moore formulerar "Moores lag"

Datorerna under 1940- och 50-talet var väldigt långsamma, men utvecklingen gjorde att de ständigt blev allt snabbare. För att mäta detta används "Moores lag".

Porträtt av Gordon Moore

En viktig förklaring till att datorerna länge blivit allt snabbare är att de transistorer som sitter på ett datorchip gått att göra mindre och mindre. Då kan man få plats med fler transistorer på varje chip.

År 1965 formulerade Intels grundare, Gordon Moore, den så kallade Moores lag. Med hjälp av den kunde man ganska enkelt förutspå i vilken takt datorer skulle utvecklas. Enligt Moores lag blir datorerna dubbelt så snabba vartannat år. En dator på 2020-talet är flera miljoner gånger snabbare än den snabbaste som fanns för femtio år sen.

(CC 2.0)(CC 2.0)

Den otroligt snabba ökningen av datorhastighet har haft en direkt inverkan på utvecklingen av artificiell intelligens. Med snabbare datorer kan AI-algoritmer bearbeta större datamängder och köra komplexa beräkningar betydligt snabbare. Idag kan AI-utvecklingen därför accelerera i en takt som tidigare inte var möjlig.

1966

Eliza – den första chattbotten

ELIZA var en av de första chattbottarna och utvecklades av Joseph Weizenbaum mellan 1964 och 1967. Programmet skapades för att utforska kommunikation mellan människor och maskiner.

Gif som visar när chattboten Eliza skriver och frågar om något bekymrar en.

Eliza använder sig av mönsterigenkänning för att identifiera specifika ord och fraser i användarens inmatning. Programmet använder sedan substitution, vilket innebär att dessa ord och fraser byts ut mot andra för att skapa svar. Detta gjorde att ELIZA kunde delta i samtal och skapa en illusion av förståelse, trots att programmet inte förstod vad som sades överhuvudtaget.

(Public domain)(Public domain)

Det mest kända skriptet i ELIZA hette DOCTOR och fungerade som en påhittad psykoterapeut som hela tiden svarade med enkla motfrågor.

Många uppfattade nog inte ELIZA som särskilt intelligent, men programmet var imponerande för sin tid. Det påstås också att tidiga användare, inklusive Weizenbaums sekreterare, tillskrev programmet mänskliga känslor, vilket förvånade honom.

Många akademiker trodde att ELIZA skulle kunna påverka människors liv positivt, och att programmet skulle kunna hjälpa läkare i deras behandling av patienter med psykologiska problem.

Den ursprungliga källkoden för ELIZA var länge försvunnen, men hittades sedan i universitetet MIT:s arkiv. Det har sedan publicerats på olika plattformar, till exempel archive.org, där man kan testa ELIZA direkt i webbläsaren.

ELIZA blev en mycket populär demonstration för hur en framtida artificiell intelligens skulle kunna prata med oss och många av dagens chattrobotar är inspirerade av Eliza, även ChatGPT.

1975

Erik Sandewall blir Sveriges första AI-professor

Erik Sandewall är en av de mest framstående pionjärerna inom AI-forskning i Sverige. Han spelade en avgörande roll i att introducera och etablera artificiell intelligens som ett akademiskt forskningsområde i landet.

Porträtt av Erik Sandewall.
Foto av Magnus Johansson/Linköpings universitet 

1975 blev Erik Sandewall professor i datavetenskap med AI som specialitet vid Linköpings universitet. Han kallas därför ofta för Sveriges första AI-professor.

I juli 2023 intervjuades Erik Sandewall om sitt liv och sin karriär i tidningen SvD Närlingsliv. Bland annat fick han en fråga om ChatGPT, som han kommenterade så här:

– När man i dag tittar på Chat GPT och liknande tjänster kan jag inte bortse från tanken att det vi ser nu har närmast leksakskaraktär. Det är kul att prova men inte så mycket mer än så.

Han uttalade sig också om potentiella faror med AI i framtiden. En risk han såg handlar om att AI kan används av stater för att övervaka och åsiktsregistrera sina medborgare. En annan risk är att AI kan användas för att påverka människors verklighetsuppfattning och bidra till att dra in folk i extremism.

Erik Sandewall avled den 5 april 2024 efter en kort tids sjukdom.

Lär dig mer

1982

Commodore 64 börjar säljas och barn kan nu spela mot "AI-motståndare"

Under 1980-talet började datorn ta plats i svenska hem på allvar. En av de mest populära var hemdatorn Commodore 64 med sina många spel.

En gif med en gul och en lila figur i ett spel – Commodore 64.

Under 1980-talet mötte många svenska barn en dator för allra första gången. Ofta inträffade detta när de fick en Commodore 64 för att spela dataspel på. Det var en av de mest populära hemdatorerna under 80-talet.

Under den här tiden utvecklades tusentals spel för datorer. Och även om det var roligast att spela mot en kompis fick många spel funktionen att spela mot en datorkontrollerad motspelare. Den datoriserade motspelaren kallades ofta för "AI", men det fanns väldigt lite intelligens bakom den automatiska spelaren.

Enkla algoritmer och regelverk gjorde det ofta enkelt att besegra datorspelaren när man väl hade listat ut hur den fungerade. Men redan på den tiden var de en kittlande tanke att datorn en dag skulle kunna lära sig spelet på egen hand, utvecklas och bli bättre än oss människor.

1996

Datorn Deep Blue besegrar världsmästaren i schack

Ända sedan den mekaniska turken på 1700-talet hade idén funnits kvar om att datorer en dag skulle kunna slå oss i schack. Och år 1996 blev det verklighet.

Kasparov vs Deep Blue vid ett bord med blå duk och chackbräde på.

1996 var året då IBM-datorn Deep Blue, en så kallad superdator, slog världsmästaren i schack, Garry Kasparov, för första gången. Även om Deep Blue lyckades vinna ett parti vann Kasparov matchen till slut med 4–2. 

Året efter, 1997, möttes datorn och människan igen och den här gången vann Deep Blue mot Kasparov med 3,5 mot 2,5. Det var en stor och viktig seger för AI-utvecklingen.

Deep Blue var en dator konstruerad för att använda flera avancerade tekniker. Till exempel:

1. Först och främst använde Deep Blue specifika schackalgoritmer för att analysera och utvärdera olika schackdrag. Algoritmerna hjälpte datorn att förstå vilka drag som var bäst i olika situationer.

2. En annan viktig teknik som Deep Blue använde kallas "brute force", eller totalsökning. Detta innebär att datorn kunde beräkna och analysera miljontals möjliga drag per sekund. Genom att testa alla dessa alternativ kunde Deep Blue hitta de bästa dragen.

3. Deep Blue hade också förprogrammerad kunskap om schack. Detta inkluderade information om schackstrategier, regler och öppningsdrag. Denna kunskap, som schackexperter hade lagt in i datorn, hjälpte Deep Blue att göra smarta och effektiva drag.

BBC News: Deep Blue vs Kasparov - How a computer beat best chess player in the world

Datorprogrammet AlphaGO

Nästan tjugo år senare utvecklade ett Londonbaserat företag, med det snarlika namnet DeepMind, datorprogrammet AlphaGo. Till skillnad från schack så var det här programmet tränat på det kinesiska brädspelet Go. Det är ett av världens äldsta spel och har så många möjliga drag att enbart en mänsklig intelligens skulle kunna bemästra det – trodde man.

I oktober 2015 inledde AlphaGo sin Go-karriär genom att vinna alla matcher mot Fan Hui, vinnare i europeiska Go-mästerskapen. AlphaGo fortsatte därefter med att utklassa de högst placerade i världen. Varje fel som AlphaGo gjorde korrigerades tills programmet var oslagbart och AlphaGo konstaterades vara bättre än alla människor på jorden. Det blev en avgörande milstolpe för AI:s utveckling och sedan dess har AlphaGO pensionerats för framtida projekt av DeepMind.

Google DeepMind: AlphaGo - The Movie | Full award-winning documentary
2007

Karen Spärck Jones: "Datavetenskap är för viktigt för att lämnas till männen"

AI-forskningen har länge varit kraftigt mansdominerad, precis som många andra områden inom teknik. Men självklart har det funnits – och finns – många kvinnor som gjort banbrytande och viktiga bidrag till forskningen om AI.

Porträtt av Karen Sparck.

Här är några av de kvinnor som gjort stora bidrag till AI-forskningens område:

Karen Spärck Jones (1935–2007): Karen Spärck Jones var en pionjär inom naturlig språkbehandling, en viktig del av AI som handlar om hur datorer kan förstå och svara på mänskligt språk. Hennes arbete ligger till grund för hur moderna sökmotorer fungerar. I en intervju från 2007 formulerade hon den numera välkända devisen "Computing is too important to be left to men".

Rosalind Picard (1962-): Rosalind Picard anses av många ha grundat affektiv datavetenskap i och med sin bok Affective Computing från 1997. Picard hade utvecklat teknik som gör att datorer kan känna igen och reagera på mänskliga känslor, till exempel genom att analysera ansiktsuttryck, tonläge eller kroppens fysiologiska signaler som hjärtslag och svettningar. Hennes arbete är betydelsefullt eftersom det gör att datorer och tekniska system kan förstå våra känslor bättre. Det förbättrar interaktionen mellan människor och maskiner och kan bland annat användas inom sjukvården för att bättre övervaka patienters välmående.

Daphne Koller (1968-): Daphne Koller är en av grundarna av Coursera, en plattform för onlinekurser. Hon har också gjort betydande bidrag till maskininlärning och dess tillämpning inom biologi och medicin. Hon har också varit en professor vid Stanford University och hennes arbete har hjälpt till att forma många av de metoder som används inom AI idag.

Porträtt av Daphne Koller som talar. (CC BY 2.0, Collision Conf from Toronto, Canada - VJR15516)(CC BY 2.0, Collision Conf from Toronto, Canada - VJR15516)
Daphne Koller. Bild från Wikipedia.

Timnit Gebru (1982-): Timnit Gebru är känd för sitt arbete med att belysa och bekämpa fördomar och partiskhet (så kallad bias) inom AI-system. Hennes forskning har visat hur vissa AI-system kan vara orättvisa och diskriminerande mot olika grupper. Hon är därför en viktig röst för att skapa mer rättvisa och inkluderande AI-teknologier.

Porträtt av Timnit Gebru som talar. (CC BY 2.0)(CC BY 2.0)
Timnit Gebru. Bild från Wikipedia.
2009

Fei-Fei Li gör datorseende mer klarsynt med ImageNet

Fei-Fei Li är en ledande forskare inom datorseende, en gren av AI som fokuserar på hur datorer kan tolka och förstå bilder och video. Hon grundade ImageNet, en databas av bilder som revolutionerade utvecklingen av AI-system och djupinlärning.

Porträtt av Fei Fei Li som talar i en mikrofon.

När Fei-Fei Li kom med sin mor till USA, dit hennes far redan hade flyttat, var hon 16 år och kunde knappt någon engelska. Trots detta blev hon inom kort sina föräldrars tolk. I skolan var hon lika snabblärd och presterade väldigt bra inom matematik – trots att hennes miniräknare var begagnad och trasig.

Hennes akademiska resa tog henne till det anrika Princeton University, där hon studerade fysik och datavetenskap som huvudämnen. Hennes intresse för datavetenskap kombinerade hon senare med neurovetenskap på Caltech. Bandet mellan dessa två vetenskaper lade grunden för vad som skulle bli hennes största bidrag till AI-historien: ImageNet.

ImageNet lär datorer se

2009 grundade Fei-Fei Li ImageNet. Det är en databas av miljontals bilder som är uppdelade i tusentals olika kategorier med syftet att träna maskininlärningsalgoritmer i datorseende. Datorseende betyder att en dator kan tolka och förstå det visuella innehållet i digitala bilder.

År 2012, skedde den kanske mest betydelsefulla händelsen i ImageNets historia. Under den årliga tävlingen ImageNet Large Scale Visual Recognition Challenge (ILSVRC) presenterades djupinlärningssystemet AlexNet av Alex Krizhevsky, Ilya Sutskever och Geoffrey Hinton. Systemet använde ett så kallat djupt konvolutionellt neuralt nätverk (CNN) med specialutvecklade algoritmer för bildbehandling och objektidentifiering. Detta förbättrade noggrannheten i bildigenkänning dramatiskt jämfört med tidigare metoder.

AlexNet:s framgång markerade ett genombrott för djupa neurala nätverk och etablerade dem som den dominerande tekniken inom bildigenkänning.

ImageNet och dess inflytande på AI har varit en avgörande milstolpe inom datorseende och djupinlärning. Fei-Fei Li:s arbete med kopplingen mellan data- och neurovetenskap har inte bara drivit teknologin framåt utan har också inspirerat en ny generation av forskare att utveckla artificiell intelligens till där den är idag.

2011

Datorn Watson vinner frågesporten Jeopardy

På 90-talet bevisade datorn Deep Blue att den kunde besegra människan i schack. Men först 2011 började den artificiella intelligensen bemästra frågesportens värld.

tumnagel för video

År 2011 vann IBM:s superdator Watson den amerikanska frågesporten Jeopardy mot två av tävlingens bästa mänskliga spelare.

För att göra detta använde Watson språkteknologi, så kallad natural language processing (NLP), för att analysera och tolka de frågor som ställdes i Jeopardy. NLP hjälpte Watson att förstå innebörden av frågorna och hitta relevanta svar i sin stora databas.

En annan viktig teknik som Watson använde var maskininlärning. Genom att träna på stora mängder data kunde Watson förbättra sin förmåga att förstå frågor och ge korrekta svar.

(CC0)(CC0)
Watson-schema. Bild från Wikipedia.

Förutom NLP och maskininlärning hade Watson en enorm databas med information. Denna databas innehöll fakta från många olika ämnesområden, vilket gjorde det möjligt för Watson att svara på frågor om nästan vad som helst. Watson kunde också hantera flera uppgifter samtidigt. Detta innebar att Watson kunde analysera en fråga och söka efter svar i sin databas mycket snabbt. Genom att bearbeta information parallellt kunde Watson svara på frågor inom några sekunder.

Watson var inte uppkopplad mot internet under tävlingen.

2022

ChatGPT – den magiska känslan av att datorn förstår oss

Den 30 november 2022 släpptes programmet ChatGPT till allmänheten. Det blev en chockvåg över internet när många för första gången kunde testa att chatta med en modern version av AI.

ChatGPT:s logga mot en mörk bakgrund med ljus i olika färger.

Företaget OpenAI grundades redan 2015, och ChatGPT använde en språkmodell som funnits i flera år. Ändå blev det nästan en magisk känsla att för första gången uppleva datorn som smart nog att förstå frågor och kunna svara på dem.

Men många blev oroliga för att ChatGPT skulle kunna göra det enkelt för skolbarn att fuska på prov, eller att de som jobbar med att skriva text skulle bli arbetslösa. Innan ChatGPT släpptes hade många människor helt enkelt inte riktigt förstått hur långt utvecklingen av artificiell intelligens hade kommit. Nu blev det plötsligt både otäckt och spännande att fundera på hur världen förändras av den nya tekniken.

ChatGPT är ett exempel på generativ AI, det vill säga AI-verktyg som kan skapa nytt innehåll som text, ljud eller bild utifrån den data som verktyget har lärt upp sig på.

Efter ChatGPT har det kommit en uppsjö av olika generativa AI-verktyg. Dall-E och Midjourney är två exempel som kan skapa imponerande bilder. Men de får även en del konstnärer och tecknare att se rött. Anledningen är att verktygen har tränats upp på stora mängder tillgängliga bilder på nätet som grund för att generera sina verk. Frågan om upphovsrätt är också oklar, vilket bland annat gör att bildbanken Getty Images förbjuder uppladdning av AI-genererade bilder.

Nu är AI vardag, men imorgon?

Artificiell intelligens har idag letat sig in nästan överallt i våra datorer och mobiler. AI-utvecklingen går rasande fort och många företag experimenterar med halvfärdiga tjänster för att vara först ute.

En del forskare menar att den snabba utvecklingen av AI är farlig och borde begränsas. De är oroliga för att människan ska överlåta allt fler viktiga beslut till automatiska datorsystem.

Vissa varnar även för risken att en superintelligent AI, som är mycket smartare än människan, skulle kunna utplåna hela mänskligheten. De flesta experter anser dock att denna domedagsoro är överdriven och att det finns mer närliggande utmaningar att fokusera på.

När Internetstiftelsen började mäta svenskarnas AI-användning år 2023 svarade 3 av 10 svenskar att AI kommer att ha en övervägande negativ påverkan på samhället. Knappt 2 av 10 trodde att AI kommer att ha en övervägande positiv påverkan.

2023

Internetstiftelsen börjar mäta svenskarnas AI-användning

Efter att ChatGPT släpptes den 30 november 2022 började intresset för AI växa på allvar. Flertalet kraftfulla AI-verktyg blev tillgängliga att använda gratis för vem som helst. Därför började Internetstiftelsen undersöka hur AI-användandet ser ut bland svenska internetanvändare.

Händer som håller i en mobil, på skärmen syns ChatGPT.

I rapporten Svenskarna och internet 2023 presenterades den första mätningen av svenskars AI-användning.

Den visade att 3 av 10 svenskar hade använt ett AI-verktyg det senaste året. Men skillnaden var stor mellan yngre och äldre. I åldrarna 18-34 år hade hela 6 av 10 använt ett AI-verktyg. Bland de äldre svenskarna, 65-84 år, var det bara 5 procent eller 1 av 20 som hade testat.

Det mest använda AI-verktyget var ChatGPT, som var fjärde svensk hade använt eller åtminstone testat. Användningen av andra verktyg var betydligt lägre – endast 3 procent av svenskarna hade använt DALL-E och 2 procent hade använt Midjourney.

Orolig för framtiden med AI

Undersökningen visade också på att svenskar överlag hade en skeptisk inställning till en framtid med AI.

Av de tillfrågade svarade 30 procent att AI-tekniken kommer att ha en övervägande negativ påverkan på samhället, medan 19 procent svarade att AI kommer att ha en övervägande positiv påverkan på framtiden. 36 procent svarade att AI kommer att ha en lika stor positiv som negativ påverkan.

2024

EU antar världens första AI-lagstiftning

För att hantera de många utmaningar och möjligheter som följer med den snabba utvecklingen av AI antog EU världens första AI-lagstiftning den 21 maj 2024.

Den nya lagstiftningen kallas AI Act, eller på svenska AI-förordningen.

AI-förordningen ska främja utvecklingen och användningen av säkra och pålitliga AI-system inom EU:s inre marknad, både av privata och offentliga aktörer. Samtidigt ska lagen skydda EU-medborgarnas grundläggande rättigheter, till exempel vad gäller integritet. AI-förordningen gäller endast inom områden som omfattas av EU:s lagstiftning och ger undantag för system som används uteslutande för militära och försvarsändamål samt för forskningsändamål.

En lag med riskbedömning

Ambitionen med AI-förordningens är att följa en riskbaserad ansats. Det innebär att ju högre risk det är att en AI kan skada samhället, desto striktare regler gäller.

Det finns fyra risknivåer: oacceptabel risk, hög risk, begränsad risk och minimal eller ingen risk.

AI-system med oacceptabel risk är system som anses var ett tydlig hot mot människors säkerhet, försörjningsmöjlighet och rättigheter. Dessa är förbjudna, enligt AI-förordningen.

AI-system med hög risk omfattar system som kan påverka människors liv och hälsa på kritiska områden. Detta gäller till exempel transport, utbildning, produktsäkerhet, anställning, offentliga och privata tjänster, brottsbekämpning, migration och rättskipning. Dessa system måste uppfylla strikta krav innan de får användas.

För AI-system med begränsad risk finns ett transparenskrav så att människor är medvetna om att de interagerar med AI. Dessutom måste AI-genererat innehåll vara tydligt märkt. Detta gäller speciellt för generativ AI som skapar text, ljud, bild och video.

AI-system som innebär minimal eller ingen risk får användas fritt. Exempel på sådana AI-system inkluderar applikationer som AI-aktiverade videospel och spamfilter. Majoriteten av AI-system som används i EU när AI-förordningen antogs tillhör denna kategori.

Historien om AI

Följande text är från Kungl. Vetenskapsakademiens skrift Vetenskapen säger – om AI. Den sammanfattar hur AI-utvecklingen har sett ut under olika årtionden, från 1940-talet till 2020-talet.

AI-utvecklingen har inte alltid gått spikrakt. Flera gånger har fältet bromsat in, för att sedan bli populärt igen, och så tappa fart än en gång. Ibland talar man om AI-utvecklingens årstider: somrar med snabba framsteg och blomstrande teknik, följt av vintrar med begränsningar, etiska utmaningar och pessimism.

1940-talet

AI-utvecklingen var ny, mer teoretisk än praktisk. Grunden för datavetenskap och maskinintelligens lades av bland andra matematikerna Alan Turing och John von Neumann. Redan 1936 presenterade Turing idén om en universell maskin som kunde räkna som en människa. Under andra världskriget arbetade han med kodknäckningsmaskiner som hade inslag av tidig AI.

1950- och 1960-talet

AI blev ett eget forskningsområde. Vid en konferens i Dartmouth 1956, organiserad av matematikern och datavetaren John McCarthy, myntades termen artificiell intelligens. Snart kom de första AI-drivna spelen. Datavetaren och psykologen Allen Newell och samhällsvetaren Herbert Simon utvecklade det första AI-programmet, Logic Theorist, som bevisade matematiska satser. Optimismen var stor men de praktiska framstegen små, eftersom datorernas kraft var så begränsad.

1970-talet

Erik Sandewall, professor i datalogi, tog AI-forskningen till Sverige och blev med tiden den första svenska AI-professorn. Forskningen vid den här tiden var riktad mot så kallade expertsystem som härmade mänsklig expertis inom specifika områden, som programmet MYCIN som skulle hjälpa läkare att diagnostisera och behandla svåra bakterieinfektioner (det testades, men infördes aldrig).

Men i mitten av decenniet fick det globala AI-fältet problem. Förväntningarna var för stora och många projekt gav inte de utlovade resultaten. Den senare hälften av 1970-talet brukar kallas för den första AI-vintern. Finansieringen och det allmänna intresset minskade.

1980-talet

Nu kom återhämtningen från förra decenniets "vinter". Forskarna hade tvingats omvärdera sina metoder, hårdvaran och algoritmerna blev bättre och förväntningarna mer realistiska. Maskininlärning och neurala nätverk fick fotfäste, och företag investerade stort i expertsystem inom bland annat medicin och på finansmarknaden.

Men tekniska utmaningar och hård konkurrens sänkte marknaden, och under den senare delen av decenniet gick många AI-bolag i konkurs. Systemen visade sig dyra att underhålla och uppdatera. Åren runt skiftet mellan 1980- och 90-talet räknas som den andra AI-vintern.

1990- och 2000-talet

På 1990-talet började maskininlärningsrevolutionen. Det skapades allt fler datadrivna och statistiska metoder och de nya teknikerna började användas inom språkbehandling, dator- seende och robotik. Forskare skapade fristående program som kunde interagera med varandra och med människor.

Detta lade grunden för modernare AI-system. Till exempel fick vi virtuella assistenter som klarade av att svara på frågor eller boka biljetter, och rekommendationsalgoritmer som används i sökmotorer och strömmande tjänster för musik och film.

2010-talet

Djupinlärning, en typ av maskininlärning, slog igenom och så kallade djupa neurala nätverk förbättrade AI:s kapacitet betydligt. När stora teknikföretag satsade kraftigt på AI-forskning ökade tempot ytterligare. Ny hårdvara som grafikprocessorer (GPU:er) spelade en avgörande roll för att träna djupinlärningsmodellerna.

Dessutom fanns nu stora mängder digitala data för systemen att träna på. AI började användas i självkörande fordon, inom vården och i digitala assistenter som Siri och Alexa. Arbetssättet i hela industrier började påverkas och AI blev en del av allt fler människors vardagsliv.

2020-talet

Djupinlärning har i dag en central plats i de flesta AI-tillämpningar och systemen kan hantera alltmer komplexa uppgifter. GPT visar vilken kapacitet djupinlärning har för naturlig språkförståelse och med hjälp av generativ AI skapas text, bilder och musik.

Under covid-19-pandemin bidrog AI både till att nya vaccin kunde designas så snabbt, och till att tillverkningen kunde skalas upp på ett effektivt sätt. Samtidigt har etiska frågor och behovet av AI-reglering börjat diskuteras på bred front.

skiljelinje