"Mielestäni ei tarvitse paniikkia, mutta ... ihmiset, jotka sanovat" Älä ole huolissamme ", en ole siitä samaa mieltä." - Bill Gates
”Keinoälyn etenemisen vauhti (en tarkoita kapeaa älykkyyttä) on uskomattoman nopea. Ellei sinulla ole suoraa altistumista ryhmille, kuten DeepMind, et tiedä kuinka nopeasti - se kasvaa lähellä eksponentiaalista vauhtia. Jotakin vakavasti vaarallista tapahtuvan riskin riski on viiden vuoden sisällä. Enintään kymmenen vuotta. ”- Elon Musk
”Täydellisen tekoälyn kehittäminen saattaisi merkitä ihmiskunnan lopun ... Se aloittaisi itsensä ja suunnittelisi itseään jatkuvasti muuttuvalla nopeudella. Ihmiset, joita rajoittaa hidas biologinen evoluutio, eivät voineet kilpailla ja heidät korvataan. "- Stephen Hawking

Meitä on varoitettu

Bill Gates, Elon Musk, Stephen Hawking - kun ne nerokas visionäärit jakavat mielipiteensä jostakin, se on todennäköisesti parasta kuunnella. Ja ennen kuin harhautat näitä vain kolmen miehen väitteinä monien teknologiajohtajien keskuudessa, harkitse tätä: Monet asiantuntijat eivät uskoneet, että tekoäly voittaisi ihmisen parhaimmat Go-pelaajat vielä kymmenen vuoden ajan, mutta se tapahtui vuonna 2016. On syytä korostaa: Ihmiset, jotka ovat omistaneet koko elämänsä AI: n parissa työskentelemiseen, eivät uskoneet, että näin voisi tapahtua ainakin 10 vuoden ajan. Joten meidän on kiinnitettävä huomiota, kun jotkut asiantuntijat kyseenalaistavat AI: n uhan ja sen kehitysvauhdin.

Mutta riittää tuomion ja synkkyyden kanssa; aurinko nousee jälleen huomenna. Kello ei ole vielä osunut keskiyöhön, mutta se tikittää. Mitä voimme tehdä valmistautua? Meidän on luotava ennaltaehkäisevät standardit, ajatteluryhmät, asetukset ja yksityisen ja julkisen sektorin kumppanuudet.

Nykyinen suoja AI: ltä

Akateemisen AI: n potentiaaliseen uhkaan on saatu useita vastauksia akateemisten ja yritysjohtajien toimesta. Kaksi merkittävää ryhmää, joka seuraa tiiviisti, ovat AI-kumppanuus ja Tulevaisuuden elämän instituutti. Jälkimmäisessä on yli 3000 tunnettua AI-tutkijaa ja yritysjohtajaa, jotka ovat allekirjoittaneet Asilomar AI -periaatteensa. Tämä lupaus korostaa eettisiä näkökohtia, joita tarvitaan AI: n vastuulliseen edistämiseen. Samaan aikaan AI-kumppanuus - joka kuuluu perustajakumppaneihin Google, Amazon, Apple, Facebook, Microsoft ja IBM - on keskittänyt tavoitteensa ajatusjohtamisen ja AI-yhteisöön sitoutumisen ympärille. Tällaisten ryhmien tekemä työ on hyvä alku, mutta näyttäisi siltä, ​​että heidän lupauksensa takana ei ole täytäntöönpanokelpoisuutta.

Myös yksittäiset yritykset osallistuvat siihen. DeepMind - väitetysti AI-tutkimuksen maailman johtava yritys - antoi Googlelle mahdollisuuden hankkia se vuonna 2014 sillä ehdolla, että Google perusti riippumattoman eettisen lautakunnan valvomaan sen toimintaa. (Kolme vuotta myöhemmin tästä hallituksesta tiedetään kuitenkin vähän.) Lisäksi DeepMind vahvisti heinäkuussa 2017, että yritys pyrkii lisäämään mielikuvitusta AI: hensa, jotta se voisi paremmin suunnitella välttämään huonoja tilanteita kuvittelemalla hyvää ja huonot tulokset. Samoin vanhemmat ja opettajat käskevät lapsia ”ajattelemaan ennen toimintasi”. AI harkitsee seurauksia ja valitsee tietyn toiminnan, jos se voi johtaa esimerkiksi vahingoille.

Okei, joten jotkut askeleet on toteutettu oikeaan suuntaan, mutta kaikissa näissä tapauksissa avoimuuden puute koskee. Edellä mainittujen ryhmien ongelma on, että aina on olemassa voittoa tavoitteita, jotka luovat huonon kannustinrakenteen AI: n kehittämiseen. Pohjimmiltaan se on asekilpailu. Kukaan yritys ei halua jäädä kilpailijan taakse, ja oikeutetusti niin.

Tietäen tämän, teknologiateollisuuden veteraanit perustivat vuonna 2015 OpenAI: n, miljardin dollarin rahoittaman ideatankin. Tämän organisaation ilmaistu tavoite on tutkia AI: tä ilman kaupallista tavoitetta varmistaakseen, että se kehittyy ihmiskunnalle hyödyllisellä tavalla. Lyhyesti sanottuna OpenAI: n perustaminen myöntää, että etiikka ei ole pysynyt tekniikan kehityksen mukana. Ja etiikkaa tarvitaan jatkossa tekoälyn ytimessä sen varmistamiseksi, että Tay-haitallisempia ohjelmia estetään ennen niiden alkamista. Mutta tämä ei vieläkään riitä: Yksityiset kansalaiset hallitsevat "vain" miljardeja dollareita, mutta hallitukset hallitsevat biljoonia dollareita ja oikeusjärjestelmiä. Sinänsä on oltava valtion valvontaa asianmukaisen varovaisuuden varmistamiseksi.

Hyvin todellinen uhka

Samanlainen syy johti teknologiajohtajat, kuten Elon Musk, vetoamaan Yhdysvaltain hallituksen johtajia pääsemään eteenpäin ja säätelemään. Heinäkuussa 2017 pidetyssä kuvernöörien huippukokouksessa Musk esitti huolensa:

"Soitan jatkuvasti hälytyskellon, mutta kunnes ihmiset näkevät robotit menemään kadulle tappaen ihmisiä, he eivät tiedä miten reagoida, koska se näyttää niin eteeriseltä."

Ja se on hanka. Ihmisten houkuttaminen etiikkaan, puhumattakaan etiikasta AI: ssa, on vaikeaa. Useimpien meistä on vaikea ymmärtää ajatusta tietokoneohjelmasta, joka tuhoaa tuhoa ilman fyysistä läsnäoloa. Musk jakoi edelleen tämän hypoteettisen skenaarion Malesian lentokoneesta, joka ammuttiin Ukrainan yli vuonna 2014:

”Jos sinulla olisi AI, jossa AI: n tavoitteena oli maksimoida osakekannan arvo, yksi tapa maksimoida arvo olisi pitkän puolustuksen jatkaminen, lyhyet kuluttajat, sodan aloittaminen ... Hakkerointi Malaysian Airlinesiin lentokoneiden reitityspalvelin, reititä se sotavyöhykkeen yli, lähetä sitten tuntematon kärki siitä, että vihollisen lentokone lentää yläpuolella juuri nyt. "

Se tekee AI: n uhasta erittäin todellisen ja hyvin yksinkertaisen, eikö niin? Ja se on hypoteettisen AI: n kanssa, jolla oli näennäisesti hyvänlaatuisia aikomuksia. Kuvittele, jos harhaanjohtamattomat aikomukset ohjelmoitiin tarkoituksella. Siksi hallitusten johtajien on nyt aika tehdä yhteistyötä teollisuuden ja akateemisten johtajien kanssa AI: n ja etiikan aloilla tarkoituksenmukaisten säännösten ja kumppanuuksien luomiseksi, jotta voidaan valmistautua AI: n olemassa olevaan riskiin.

Hallituksen vastaus: nykyisyys ja tulevaisuus

Yksityiset organisaatiot eivät ole ainoita, jotka ovat alkaneet kiinnittää huomiota AI: hen. Sekä Obaman hallinto raportillaan "Valmistautuminen keinotekoisen älykkyyden tulevaisuuteen" ja Kiinan hallitus, joka asetti äskettäin tavoitteen tulla AI: n maailmanjohtajaksi vuoteen 2030 mennessä, lähetti selkeät signaalit, että tämä on asia, joka voi " t ei saa jättää huomiotta. On kuitenkin tärkeää huomata, että molemmissa tapauksissa keskitytään ensisijaisesti taloudellisiin tuloksiin. Tämä on järkevää, koska hallituksen vastuu on kansalaisilleen, ja ihmiset välittävät siitä, pystyvätkö he edelleen tukemaan perhettään AI: lla, joka uhkaa monia ammatteja. Taloudellisia vaikutuksia ympäröivä lainsäädäntö on tärkeää, mutta tällä hetkellä AI: n uhka itsessään näyttää olevan ennakkoluuloton. Tämä on järkevää, koska poliitikot ovat tottuneet antamaan sääntelyä sen jälkeen, kun tekniikkaan liittyy ongelmia. Jokaisen uuden tekniikan kielteisiä vaikutuksia on kuitenkin vaikea ennustaa; tämä ei kuitenkaan riitä AI: n kanssa. Kun kielteiset vaikutukset ovat täysin selviä, voi olla liian myöhäistä hallituksen puuttumiseen.

Siksi poliitikkojen on työskenneltävä tekniikan asiantuntijoiden kanssa ollakseen ennaltaehkäiseviä tämän alan sääntelyn suhteen. Bonuksena se antaa päätöksentekijöille ymmärtää paremmin AI: n luonteen perustasolta, mikä auttaa heitä taloudellisissa muutoksissa, joita AI todennäköisesti aiheuttaa.

Mitä tämä kaikki tarkoittaa jokapäiväiselle henkilölle, joka ei toimi AI: n, etiikan tai politiikan aloilla? No, meillä on kaksi vaihtoehtoa. Istu, odota ja ristiin sormillamme, että kaikki toimii, tai kouluta itseämme, lisää tietoisuutta yhteisöissämme ja pyydä edustajiamme sääntelemään AI-kehitystä oikein. Ja jos olet saanut tämän viestin (ja sarjan) loppuun, tiedät enemmän AI-kehityksestä kuin 95 prosenttia väestöstä. Tuo tieto on voimaa. Nyt voit valita, otatko vastuun tämän vallan mukana ja autat pelaamaan pientä osaa varmistaaksesi, että AI-tulevaisuutemme on hyvä.