Luku 1: Valmiina, Paikoillanne, Aloittakaa
Tietokilpailut
1.2 Tekoäly – ensimmäisistä unelmista tämän päivän todellisuuteen
Tekoälyn historia on kiehtova, vuosikymmeniä kestävä löytöretki, jota leimaa merkittävät virstanpylväät ja uraauurtavien tutkijoiden panos. Kyse ei ole vain algoritmeista ja koodeista, vaan ihmisen halusta ymmärtää ja jäljitellä älykkyyttä. Keskustelemme eräistä tämän kehityksen avainhetkistä, jotta ymmärrämme, mistä tekoäly on tullut, ja jotta saamme myös käsityksen siitä, mihin se on menossa.
Otetaan askel taaksepäin ja tutkitaan, miten pääsimme tähän. Ajatus tekoälystä ei ole täysin uusi. Se on hautunut vuosikymmeniä, ja se kylvettiin jo 1900-luvun alussa. Mutta vasta 1940-luvulla alettiin todella nähdä perustan luomista. Ajatelkaa Alan Turingia, nerokasta matemaatikkoa ja loogikkoa. Hän visioi ”universaalin koneen”, joka pohjusti tietä nykyään käyttämillemme algoritmeille. Toisen maailmansodan aikana hänen koodinmurtotyönsä Bletchley Parkissa osoitti meille koneiden uskomattomat mahdollisuudet käsitellä monimutkaisia tehtäviä.
Siirrymme vuoteen 1956. Kuvittele, että Dartmouth Collegeen kokoontuu joukko nerokkaita mieliä: John McCarthy, Marvin Minsky, Nathaniel Rochester ja Claude Shannon. He keksivät termin ”tekoäly”, ja tuo konferenssi merkitsi tekoälyn virallista syntyä tutkimusalana.
1960-luku oli innostuksen ja kokeilujen aikaa. Silloin kehitettiin ensimmäisiä tekoälyohjelmia, kuten ELIZA, yksi ensimmäisistä chat-roboteista. Se oli vähän kuin opettaisi tietokonetta jäljittelemään ihmisten keskustelua. Sitten tuli General Problem Solver, joka oli tärkeä askel kohti ongelmanratkaisutaitojen kehittämistä.
1970- ja 80-luvut olivat eräänlainen tekoälyn ”talvi”. Rahoitus loppui, ja kehitys näytti pysähtyneen. Takaiskuista huolimatta oli kuitenkin pioneereja, jotka pitivät liekkiä yllä. Sitten 1980-luvulla nähtiin tekoälyn elpyminen ja uusi kiinnostus sitä kohtaan, erityisesti asiantuntijajärjestelmien kehittämisen myötä. Ne oli suunniteltu jäljittelemään ihmisten asiantuntijoiden päätöksentekokykyä. Se oli kuin antaisi tietokoneille maistiaisen ihmisen päättelykyvystä.
1990-luvun lopulla ja 2000-luvun alussa nähtiin joitakin todella merkittäviä edistysaskeleita. Muistatko, kun IBM:n Deep Blue voitti shakkimestari Garri Kasparovin? Se oli käännekohta, joka osoitti maailmalle tekoälyn mahdollisuudet monimutkaisissa tehtävissä. Tekoälytutkimus lähti toden teolla liikkeelle koneoppimisen ja suurten datamäärien saatavuuden myötä.
2010-luvulla syntyi syväoppiminen, tehokas teknologia, jonka avulla koneet voivat oppia valtavista tietomääristä. Googlen DeepMind kehitti AlphaGon, joka voitti Go-mestari Lee Sedolin. Se oli jälleen yksi hetki, joka kiinnitti maailman huomion. Ja sitten vuonna 2017 esiteltiin transformer-arkkitehtuuri, joka mullisti luonnollisen kielen käsittelyn. GPT-3:n ja BERT:n kaltaisten mallien avulla tekoäly pystyi ymmärtämään ja tuottamaan ihmiskielitä tavoilla, joita emme koskaan pitäneet mahdollisina.
Tästä pääsemmekin tähän päivään. Tekoäly ei ole enää vain käsite tai tutkimushanke. Se on kaikkialla: jokapäiväisessä elämässämme, terveydenhuollossa, rahoituksessa, liikenteessä ja viihteessä. ChatGPT:n, Clauden ja Geminin kaltaiset työkalut sekä Midjourneyn, DALL-E:n ja Imagenin kaltaiset kuvageneraattorit ovat tuoneet tekoälyn kaikkien ulottuville. Tämä on jännittävää aikaa, mutta nyt on myös aika pohtia tämän tehokkaan teknologian eettisiä vaikutuksia ja vastuullista käyttöä.