Tehisintellekt. Teine osa: väljasuremine või surematus?

Sisukord:

Tehisintellekt. Teine osa: väljasuremine või surematus?
Tehisintellekt. Teine osa: väljasuremine või surematus?

Video: Tehisintellekt. Teine osa: väljasuremine või surematus?

Video: Tehisintellekt. Teine osa: väljasuremine või surematus?
Video: Minu Kamp - Ma ei tule tagasi (sõnadega) 2024, Märts
Anonim
Tehisintellekt. Teine osa: väljasuremine või surematus?
Tehisintellekt. Teine osa: väljasuremine või surematus?

Enne sind on artikli teine osa sarjast "Oota, kuidas see kõik saab tõsi olla, miks sellest ikka iga nurga peal ei räägita." Eelmises seerias sai teatavaks, et intelligentsiplahvatus hiilib tasapisi planeedi Maa inimesteni, see püüab areneda kitsalt keskendunud universaalseks intelligentsiks ja lõpuks tehislikuks luureks.

"Võib -olla seisame silmitsi äärmiselt raske probleemiga ja pole teada, kui palju aega selle lahendamiseks eraldatakse, kuid inimkonna tulevik võib sõltuda selle lahendusest." - Nick Bostrom.

Artikli esimene osa algas piisavalt süütult. Arutasime kitsalt keskendunud tehisintellekti (AI, mis on spetsialiseerunud ühe konkreetse probleemi lahendamisele, nagu marsruutide määramine või malemäng), seda on meie maailmas palju. Seejärel analüüsisid nad, miks on nii raske kasvatada üldist suunatud tehisintellekti (AGI ehk tehisintellekt, mida intellektuaalsete võimete poolest saab võrrelda inimesega mis tahes probleemi lahendamisel). Jõudsime järeldusele, et tehnoloogilise arengu eksponentsiaalne kiirus viitab sellele, et AGI võib üsna pea nurga taga olla. Lõpuks otsustasime, et niipea, kui masinad jõuavad inimluureni, võib kohe juhtuda järgmine:

Pilt
Pilt
Pilt
Pilt
Pilt
Pilt
Pilt
Pilt

Nagu tavaliselt, vaatame ekraani, uskumata, et kunstlik superintelligents (ISI, mis on palju targem kui ükski inimene) võib ilmneda meie elu jooksul, ja valime emotsioone, mis peegeldaksid kõige paremini meie arvamust selles küsimuses.

Enne kui sukeldume ISI eripäradesse, tuletame endale meelde, mida tähendab masina ülitarkus.

Peamine erinevus seisneb kiire superluure ja kvaliteetse superintelligentsuse vahel. Sageli tuleb superintelligentsest arvutist mõeldes esimene asi meelde, et see suudab mõelda palju kiiremini kui inimene - miljoneid kordi kiiremini ja viie minutiga saab aru, mis kuluks inimesel kümme aastat. ("Ma tean kung fu!")

See kõlab muljetavaldavalt ja ISI peaks tõesti mõtlema kiiremini kui keegi teine - kuid peamine eraldav omadus on selle luure kvaliteet, mis on täiesti erinev. Inimene on ahvidest palju targem mitte sellepärast, et ta mõtleks kiiremini, vaid sellepärast, et nende ajus on hulk geniaalseid kognitiivseid mooduleid, mis viivad läbi keerulisi keelelisi esitusviise, pikaajalist planeerimist, abstraktset mõtlemist, milleks ahvid pole võimelised. Kui ahviaju tuhat korda kiirendada, ei muutu see meist targemaks - isegi kümne aasta pärast ei suuda ta vastavalt juhistele konstruktorit kokku panna, mis võtaks inimesel aega kõige rohkem paar tundi. On asju, mida ahv kunagi ei õpi, olenemata sellest, mitu tundi ta veedab või kui kiiresti aju töötab.

Lisaks ei tea ahv, kui inimlikult, sest tema aju pole lihtsalt võimeline mõistma teiste maailmade olemasolu - ahv võib küll teada, mis inimene on ja mis on pilvelõhkuja, kuid ei saa kunagi aru, et pilvelõhkuja on ehitatud inimesed. Tema maailmas kuulub kõik loodusele ja makaak mitte ainult ei saa pilvelõhkujat ehitada, vaid saab ka aru, et igaüks saab seda üldse ehitada. Ja see on intelligentsuse kvaliteedi väikese erinevuse tulemus.

Üldises intelligentsusskeemis, millest me räägime, või lihtsalt bioloogiliste olendite standardite järgi, on intelligentsuse kvaliteedi erinevus inimeste ja ahvide vahel väike. Eelmises artiklis asetasime bioloogilised kognitiivsed võimed redelile:

Pilt
Pilt

Et mõista, kui tõsine on superintelligentne masin, asetage see kaks pügalat kõrgemale kui see redel. See masin võib olla vaid pisut ülitark, kuid selle üleolek meie kognitiivsete võimete ees on sama, mis meil - ahvide ees. Ja nii nagu šimpans ei saa kunagi aru, et saab ehitada pilvelõhkuja, ei pruugi me kunagi mõista, mida paar sammu kõrgemal olev masin mõistab, isegi kui masin üritab seda meile selgitada. Kuid see on vaid paar sammu. Nutikam masin näeb meis sipelgaid - see õpetab meile aastaid lihtsamaid asju oma positsioonilt ja need katsed on täiesti lootusetud.

Seda tüüpi superintelligents, millest me täna räägime, asub sellest redelist kaugemal. See on intelligentsuse plahvatus - mida targemaks auto muutub, seda kiiremini suudab ta suurendada oma intelligentsust, suurendades järk -järgult hoogu. Võib kuluda aastaid, kuni selline masin ületab intelligentsusega šimpansid, kuid võib -olla paar tundi, et meid paari pügala võrra ületada. Sellest hetkest alates võib auto juba igal sekundil üle nelja astme hüpata. Sellepärast peaksime mõistma, et varsti pärast seda, kui ilmuvad esimesed uudised selle kohta, et masin on jõudnud inimese intelligentsuse tasemele, võime silmitsi seista Maa kooseksisteerimise reaalsusega, mis on sellel redelil meist palju kõrgemal (või võib -olla ja miljoneid kordi suurem):

Pilt
Pilt

Ja kuna oleme kindlaks teinud, et täiesti mõttetu on püüda mõista masina võimsust, mis on meist vaid kaks sammu kõrgemal, määratlegem ükskord ja lõplikult, et pole võimalik mõista, mida ISI teeb ja millised on selle tagajärjed see saab olema meie jaoks. Igaüks, kes väidab vastupidist, ei saa lihtsalt aru, mida superintelligents tähendab.

Evolutsioon on sadade miljonite aastate jooksul aeglaselt ja järk -järgult arendanud bioloogilist aju ja kui inimesed loovad superintelligentse masina, ületame teatud mõttes evolutsiooni. Või on see osa evolutsioonist - võib -olla toimib evolutsioon nii, et intelligentsus areneb järk -järgult, kuni jõuab pöördepunktini, mis kuulutab uue tuleviku kõigile elusolenditele:

Pilt
Pilt

Põhjustel, mida me hiljem arutame, usub tohutu osa teadlaskonnast, et küsimus pole selles, kas jõuame selle pöördepunktini, vaid selles, millal.

Kuhu me pärast seda jõuame?

Ma arvan, et keegi siin maailmas, ei mina ega teie, ei oska öelda, mis juhtub, kui jõuame murdepunkti. Oxfordi filosoof ja juhtiv AI teoreetik Nick Bostrom usub, et saame kõik võimalikud tulemused jagada kahte laia kategooriasse.

Esiteks, ajalugu vaadates teame elust järgmist: liigid ilmuvad, eksisteerivad teatud aja jooksul ja kukuvad siis paratamatult tasakaalukiirtelt maha ning surevad välja.

Pilt
Pilt

"Kõik liigid surevad välja" on olnud ajaloos sama usaldusväärne reegel kui "kõik inimesed surevad ühel päeval". 99,9% liikidest on langenud elupalgist ja on täiesti selge, et kui liik ripub sellel palgil liiga kaua, pöörab palgi ümber loodusliku tuulehoog või äkiline asteroid. Bostrom nimetab väljasuremist meelitaja seisundiks - kohaks, kus kõik liigid tasakaalustuvad, et mitte langeda sinna, kus ükski liik pole veel tagasi tulnud.

Ja kuigi enamik teadlasi tunnistab, et ISI -l on võime inimesi väljasuremisele hukka mõista, usuvad paljud ka, et ISI võimete kasutamine võimaldab üksikisikutel (ja liikidel tervikuna) saavutada ligitõmbava teise seisundi - liikide surematuse. Bostrom usub, et liigi surematus on sama ligitõmbav kui liigi väljasuremine, ehk kui me selleni jõuame, oleme hukule määratud igavesele eksistentsile. Seega, isegi kui kõik liigid langesid sellelt pulgalt väljasuremiskeerisesse, usub Bostrom, et palgil on kaks külge ja Maal lihtsalt ei ilmunud sellist intelligentsust, mis mõistaks, kuidas teisele poole kukkuda.

Pilt
Pilt

Kui Bostromil ja teistel on õigus ja kogu meile kättesaadava teabe põhjal võib see nii olla, peame aktsepteerima kahte väga šokeerivat fakti:

ISI tekkimine esmakordselt ajaloos avab liikidele tee surematuse saavutamiseks ja surmava väljasuremistsükli välja langemiseks.

ISI tekkimisel on nii kujuteldamatult suur mõju, et suure tõenäosusega tõrjub see inimkonna sellest palgist ühes või teises suunas.

Võimalik, et kui evolutsioon jõuab sellise pöördepunktini, lõpetab see alati inimeste suhted eluvooga ja loob uue maailma, kas inimestega või ilma.

See toob kaasa huvitava küsimuse, mida ainult põntsamees ei küsiks: millal jõuame sellesse murdepunkti ja kuhu see meid paneb? Keegi maailmas ei tea sellele topeltküsimusele vastust, kuid paljud targad inimesed on püüdnud seda aastakümneid välja mõelda. Ülejäänud artiklis selgitame välja, kust nad tulid.

* * *

Alustame selle küsimuse esimesest osast: millal peaksime jõudma pöördepunkti? Teisisõnu: kui palju aega on jäänud, kuni esimene masin jõuab superintellekti?

Arvamused on iga juhtumi puhul erinevad. Paljud, sealhulgas professor Vernor Vinge, teadlane Ben Herzel, Sun Microsystemsi kaasasutaja Bill Joy, futurist Ray Kurzweil, nõustusid masinõppe eksperdi Jeremy Howardiga, kui ta esitas TED Talkil järgmise graafiku:

Pilt
Pilt

Need inimesed jagavad seisukohta, et ISI on peagi tulemas - see eksponentsiaalne kasv, mis tundub meile täna aeglane, plahvatab sõna otseses mõttes järgmise paari aastakümne jooksul.

Teised, nagu Microsofti kaasasutaja Paul Allen, teaduspsühholoog Gary Marcus, arvutiekspert Ernest Davis ja tehnoloogiaettevõtja Mitch Kapor, usuvad, et Kurzweili-sugused mõtlejad alahindavad tõsiselt probleemi ulatust ja arvavad, et me pole kaugeltki nii lähedal pöördepunkt.

Kurzweili leer väidab, et ainus alahindamine, mis ette tuleb, on eksponentsiaalse kasvu eiramine ning kahtlejaid võib võrrelda nendega, kes vaatasid 1985. aastal aeglaselt õitsevat internetti ja väitsid, et see ei avalda lähitulevikus maailmale mingit mõju.

Kahtlejad võivad tõrjuda, et edusammudel on keerulisem iga järgmist sammu astuda, kui tegemist on luure eksponentsiaalse arenguga, mis neutraliseerib tehnoloogilise progressi tüüpilise eksponentsiaalse olemuse. Jne.

Kolmas laager, kus Nick Bostrom on, ei nõustu ei esimese ega teisega, väites, et a) see kõik võib lähitulevikus absoluutselt juhtuda; ja b) puudub garantii, et see üldse juhtub või et see võtab kauem aega.

Teised, nagu filosoof Hubert Dreyfus, usuvad, et kõik kolm gruppi usuvad naiivselt, et murdepunkt saabub üldse ja tõenäoliselt ei jõua me kunagi ISI -sse.

Mis juhtub, kui me kõik need arvamused kokku paneme?

2013. aastal viis Bostrom läbi küsitluse, milles intervjueeris sadu tehisintellekti eksperte konverentside sarjas järgmisel teemal: "Millised on teie ennustused AGI saavutamiseks inimlikul tasandil?" ja palus meil nimetada optimistliku aasta (mille puhul saame AGI -d 10 -protsendilise tõenäosusega), realistliku eelduse (aasta, mil AGI on 50 -protsendilise tõenäosusega) ja enesekindla eelduse (varaseim aasta, mil AGI ilmub alates 90 -protsendilisest tõenäosusest). Siin on tulemused:

* Keskmine optimistlik aasta (10%): 2022

* Keskmine realistlik aasta (50%): 2040

* Keskmine pessimistlik aasta (90%): 2075

Keskmised vastajad usuvad, et 25 aasta pärast on meil pigem AGI kui mitte. 90 -protsendiline AGI esinemise tõenäosus aastaks 2075 tähendab, et kui olete praegu veel üsna noor, juhtub see tõenäoliselt teie elu jooksul.

Eraldi uuring, mille viis hiljuti läbi James Barratt (tunnustatud ja väga hea raamatu „Meie uusim leiutis“autor, katkendeid Esitasin lugejate tähelepanu Hi-News.ru) ja Ben Hertzel AGI konverentsil, iga-aastasel AGI konverentsil, näitasid lihtsalt inimeste arvamust aasta kohta, mil me AGI-le jõuame: 2030, 2050, 2100, hiljem või mitte kunagi. Siin on tulemused:

* 2030: 42% vastanutest

* 2050: 25%

* 2100: 20%

Pärast 2100: 10%

Mitte kunagi: 2%

Sarnaselt Bostromi tulemustele. Barratti küsitluses usub üle kahe kolmandiku küsitletutest, et AGI on aastaks 2050 kohal ja vähem kui pooled usuvad, et AGI ilmub järgmise 15 aasta jooksul. Silmatorkav on ka see, et ainult 2% vastanutest ei näe põhimõtteliselt AGI -d meie tulevikus.

Kuid AGI ei ole pöördepunkt nagu ISI. Millal saab ekspertide sõnul ISI?

Bostrom küsis ekspertidelt, millal me ASI -sse jõuame: a) kaks aastat pärast AGI -le jõudmist (see tähendab peaaegu koheselt luureplahvatuse tõttu); b) 30 aasta pärast. Tulemused?

Keskmine arvamus on, et kiire üleminek AGI -lt ISI -le toimub 10% tõenäosusega, kuid 30 aasta pärast või vähem 75% tõenäosusega.

Nende andmete põhjal ei tea me, millisel kuupäeval vastajad nimetaksid ASI 50 -protsendiliseks tõenäosuseks, kuid kahe ülaltoodud vastuse põhjal oletame, et see on 20 aastat. See tähendab, et maailma juhtivad tehisintellekti eksperdid usuvad, et murrang saabub aastal 2060 (AGI ilmub aastal 2040 + AGI -lt ISI -le üleminekuks kulub 20 aastat).

Pilt
Pilt

Loomulikult on kogu ülaltoodud statistika spekulatiivne ja esindab lihtsalt tehisintellekti valdkonna ekspertide arvamust, kuid viitab ka sellele, et enamik huvilisi nõustub, et aastaks 2060 on AI tõenäoliselt käes. Vaid 45 aastaga.

Liigume teise küsimuse juurde. Kui jõuame pöördepunkti, siis kumb pool saatuslikust valikust meid määrab?

Superintelligentsil on kõige võimsam jõud ja meie jaoks on kriitiline küsimus järgmine:

Kes või mis seda võimu kontrollib ja mis on nende motivatsioon?

Vastus sellele küsimusele sõltub sellest, kas ISI saab uskumatult võimsa arengu, mõõtmatult kohutava arengu või midagi vahepealset.

Loomulikult püüab ekspertide kogukond ka neile küsimustele vastata. Bostromi küsitlus analüüsis AGI mõju inimkonnale võimalike tagajärgede tõenäosust ja selgus, et 52 -protsendilise tõenäosusega läheb kõik väga hästi ja 31 -protsendilise tõenäosusega läheb kõik kas halvasti või äärmiselt halvasti. Selle teema eelmise osa lõpus lisatud küsitlus, mis viidi läbi teie seas, kallid Hi-News lugejad, näitas umbes samu tulemusi. Suhteliselt neutraalse tulemuse korral oli tõenäosus vaid 17%. Teisisõnu, me kõik usume, et AGI -st saab suur asi. Samuti väärib märkimist, et see uuring puudutab AGI tekkimist - ISI puhul on neutraalsuse protsent väiksem.

Enne kui hakkame sügavamalt mõtlema küsimuse headele ja halbadele külgedele, ühendagem küsimuse mõlemad pooled - "millal see juhtub?" ja "kas see on hea või halb?" tabelisse, mis hõlmab enamiku ekspertide seisukohti.

Pilt
Pilt

Pealaagrist räägime minuti pärast, kuid kõigepealt otsustage oma positsiooni üle. Võimalik, et olete samas kohas, kus olin enne selle teemaga tegelema hakkamist. On mitmeid põhjuseid, miks inimesed sellele teemale üldse ei mõtle:

* Nagu esimeses osas mainitud, on filmid inimesi ja fakte tõsiselt segadusse ajanud, esitades tehisintellektiga ebareaalseid stsenaariume, mis tõi kaasa asjaolu, et me ei peaks tehisintellekti üldse tõsiselt võtma. James Barratt võrdles seda olukorda haiguste tõrje keskuste (CDC) välja antud tõsise hoiatusega vampiiride kohta meie tulevikus.

* Niinimetatud kognitiivsete eelarvamuste tõttu on meil väga raske uskuda, et miski on tõeline, kuni meil pole tõendeid. Võib kindlalt ette kujutada, et 1988. aasta arvutiteadlased arutavad regulaarselt Interneti kaugeleulatuvate tagajärgede üle ja selle üle, mis sellest võiks saada, kuid vaevalt uskusid inimesed, et see muudab nende elu, kuni see tegelikult juhtus. Lihtsalt arvutid ei osanud seda 1988. aastal teha ja inimesed lihtsalt vaatasid oma arvuteid ja mõtlesid: „Kas tõesti? Kas see muudab maailma? Nende kujutlusvõimet piirasid isiklikust kogemusest õpitu, nad teadsid, mis arvuti on, ja oli raske ette kujutada, milleks arvuti tulevikus võimeline on. Sama juhtub nüüd ka tehisintellektiga. Me kuulsime, et sellest saab tõsine asi, kuid kuna me pole seda veel näost näkku kohanud ja üldiselt jälgime tänapäevases maailmas tehisintellekti üsna nõrku ilminguid, on meil üsna raske uskuda, et see muutub radikaalselt muuta meie elu. Just nende eelarvamuste vastu on arvukad eksperdid kõikidest laagritest ja huvilised, kes püüavad meie tähelepanu haarata läbi igapäevase kollektiivse egotsentrismi müra.

* Isegi kui me sellesse kõike usuksime - mitu korda olete täna mõelnud sellele, et veedate ülejäänud igaviku tühjuses? Natuke, nõus. Isegi kui see fakt on palju olulisem kui kõik, mida te päevast päeva teete. Seda seetõttu, et meie aju on tavaliselt keskendunud väikestele igapäevastele asjadele, olenemata sellest, kui petlik on see pikaajaline olukord. Lihtsalt oleme loodud.

Selle artikli üks eesmärke on viia teid välja laagrist nimega "Mulle meeldib mõelda teistele asjadele" ja panna teid ekspertide laagrisse, isegi kui seisate lihtsalt väljakul kahe punktiirjoone ristmikul. eespool, täiesti otsustamata.

Uuringute käigus ilmneb, et enamiku inimeste arvamused kalduvad kiiresti "põhilaagri" poole ja kolm neljandikku ekspertidest jagunevad põhilaagris kahte alamlaagrisse.

Pilt
Pilt

Külastame mõlemat laagrit täies mahus. Alustame lõbust.

Miks võiks tulevik olla meie suurim unistus?

Tehisintellekti maailma uurides leiame oma mugavustsoonist üllatavalt palju inimesi. Üleval paremal väljakul olevad inimesed sumisevad põnevusest. Nad usuvad, et kukume palgi heale poolele, ja usuvad ka, et jõuame selleni paratamatult. Nende jaoks on tulevik vaid parim, millest ainult unistada saab.

Neid inimesi eristab teistest mõtlejatest mitte see, et nad tahavad olla õnneliku poole peal - vaid selles, et nad on kindlad, et just tema ootab meid.

See usaldus tuleb vastuoludest. Kriitikud usuvad, et see tuleneb pimestavast põnevusest, mis varjutab võimalikke negatiivseid külgi. Aga pooldajate sõnul on sünged ennustused alati naiivsed; tehnoloogia jätkub ja aitab meid alati rohkem kui kahjustada.

Võite vabalt valida ükskõik millise neist arvamustest, kuid jätke kõrvale skeptilisus ja vaadake tasakaalukiira õnnelikku külge põhjalikult, püüdes leppida tõsiasjaga, et kõik, millest lugesite, võis juba juhtuda. Kui te näitaksite jahimeestele -korilastele meie mugavuse, tehnoloogia ja lõputu külluse maailma, tunduks see neile maagilise väljamõeldisena - ja me käitume üsna tagasihoidlikult, suutmata tunnistada, et sama arusaamatu ümberkujundamine ootab meid ka tulevikus.

Nick Bostrom kirjeldab kolme teed, mida superintelligentne AI -süsteem saab teha:

* Oraakel, mis suudab vastata igale täpsele küsimusele, sealhulgas keerulistele küsimustele, millele inimesed ei oska vastata - näiteks "kuidas muuta automootorit efektiivsemaks?" Google on primitiivne "oraakli" tüüp.

* Džinn, kes täidab mis tahes kõrgetasemelise käsu - kasutades molekulaarset komplekteerijat, et luua automootori uus, tõhusam versioon - ja jääb ootama järgmist käsku.

* Suverään, kellel on lai juurdepääs ja võime maailmas vabalt toimida, ise otsuseid langetades ja protsessi täiustades. Ta leiutab odavama, kiirema ja ohutuma eratranspordi viisi kui auto.

Need küsimused ja ülesanded, mis tunduvad meile keerulised, tunduvad superintelligentsele süsteemile justkui keegi paluks olukorda parandada “mu pliiats kukkus laua pealt maha”, milles te selle lihtsalt üles võtaksite ja tagasi paneksite.

Ameerika tehisintellekti spetsialist Eliezer Yudkowski ütles hästi:

"Ei ole raskeid probleeme, on ainult probleemid, mis on teatud intelligentsustaseme jaoks rasked. Minge üks aste kõrgemale (intelligentsuse osas) ja mõned probleemid liiguvad äkki kategooriast "võimatu" laagrisse "ilmselge". Üks samm kõrgemale - ja need kõik saavad ilmsiks."

On palju kannatamatuid teadlasi, leiutajaid ja ettevõtjaid, kes on meie toidulaualt kindla enesetunde tsooni valinud, kuid vajame vaid ühte juhendit, et kõndida selles maailma parimas.

Ray Kurzweil on mitmetähenduslik. Mõni ebajumalatab tema ideid, mõni põlgab teda. Mõned jäävad keskele - Douglas Hofstadter, arutledes Kurzweili raamatute ideede üle, märkis kõnekalt, et „justkui võtsite palju head toitu ja väikese koerakaka ning segasite siis kõik kokku nii, et sellest on võimatu aru saada mis on hea ja mis halb."

Ükskõik, kas teile meeldivad tema ideed või mitte, on võimatu neid mööda saata ilma huvivarjuta. Ta hakkas asju leiutama juba teismelisena ja järgnevatel aastatel leiutas ta mitmeid olulisi asju, sealhulgas esimese lamedaskanneri, esimese teksti kõneks teisendava skanneri, tuntud Kurzweili muusikasüntesaatori (esimese tõelise elektriklaveri) ja esimene kaubanduslikult edukas kõnetuvastus. Ta on ka viie sensatsioonilise raamatu autor. Kurzweili hinnatakse julgete ennustuste eest ja tema saavutused on üsna head - 80ndate lõpus, kui Internet oli alles lapsekingades, ennustas ta, et 2000. aastateks muutub veeb ülemaailmseks nähtuseks. Wall Street Journal nimetas Kurzweili "rahutuks geeniuseks", Forbes "globaalseks mõtlemismasinaks", Inc. Ajakiri - "Edisoni seaduslik pärija", Bill Gates - "parim neist, kes ennustavad tehisintellekti tulevikku". 2012. aastal kutsus Google'i kaasasutaja Larry Page Kurzweili CTO ametikohale. 2011. aastal asutas ta koos Singularity University, mida korraldab NASA ja mida sponsoreerib osaliselt Google.

Tema elulugu on oluline. Kui Kurzweil räägib oma tulevikuvisioonist, kõlab see hullumeelselt, kuid tõeliselt hull on see, et ta pole hullust kaugel - ta on uskumatult tark, haritud ja terve mõistusega inimene. Võib arvata, et ta eksib oma ennustustes, kuid ta pole loll. Kurzweili ennustusi jagavad paljud mugavustsoonide eksperdid Peter Diamandis ja Ben Herzel. Seda ta arvab, et see juhtub.

Kronoloogia

Kurzweil usub, et arvutid jõuavad 2029. aastaks üldise tehisintellekti (AGI) tasemele ja aastaks 2045 ei ole meil mitte ainult tehislik superintellekt, vaid ka täiesti uus maailm - nn singulaarsuse aeg. Selle tehisintellekti kronoloogiat peetakse endiselt ennekuulmatult liialdatuks, kuid viimase 15 aasta jooksul on väga keskendunud tehisintellekti (AI) süsteemide kiire areng sundinud paljusid eksperte Kurzweili poolele asuma. Tema ennustused on endiselt ambitsioonikamad kui Bostromi uuringus (AGI 2040, ISI 2060), kuid mitte palju.

Kurzweili sõnul on 2045. aasta singulaarsuse taga kolm samaaegset revolutsiooni biotehnoloogias, nanotehnoloogias ja mis veelgi olulisem - tehisintellektis. Kuid enne kui jätkame - ja nanotehnoloogia jälgib tähelepanelikult tehisintellekti -, võtame hetkeks nanotehnoloogia.

Pilt
Pilt

Paar sõna nanotehnoloogiast

Tavaliselt nimetame nanotehnoloogia tehnoloogiaid, mis käsitlevad aine manipuleerimist vahemikus 1-100 nanomeetrit. Nanomeeter on üks miljardik meetrit või miljonimillimeetrit; vahemikus 1-100 nanomeetrit võivad mahutada viirused (läbimõõt 100 nm), DNA (laiusega 10 nm), hemoglobiini molekulid (5 nm), glükoos (1 nm) jt. Kui nanotehnoloogia kunagi meile allub, on järgmine samm üksikute aatomitega manipuleerimine, mis on alla ühe suurusjärgu (~, 1 nm).

Et mõista, kus inimestel tekivad probleemid sellisel skaalal ainet manipuleerida, hüppame suuremale skaalale. Rahvusvaheline kosmosejaam asub Maast 481 kilomeetri kõrgusel. Kui inimesed oleksid hiiglased ja lööksid peaga ISS -i, oleksid nad 250 000 korda suuremad kui praegu. Kui suurendate 250 000 korda midagi vahemikus 1 kuni 100 nanomeetrit, saate 2,5 sentimeetrit. Nanotehnoloogia on samaväärne inimesega, kes tiirleb ümber ISS -i, püüdes manipuleerida liivatera või silmamuna suuruste asjadega. Järgmisele tasandile - üksikute aatomite juhtimisele - jõudmiseks peab hiiglane hoolikalt paigutama 1/40 millimeetrise läbimõõduga esemeid. Tavalised inimesed vajavad nende nägemiseks mikroskoopi.

Esimest korda rääkis Richard Feynman nanotehnoloogiast 1959. aastal. Siis ütles ta: „Füüsika põhimõtted, niipalju kui ma aru saan, ei räägi võimalusele aatomite kaupa asju kontrollida. Põhimõtteliselt võiks füüsik sünteesida mis tahes kemikaali, mille keemik on kirja pannud. Kuidas? Asetades aatomeid sinna, kus keemik ütleb, et too aine kätte saada. See on kogu lihtsus. Kui teate, kuidas üksikuid molekule või aatomeid liigutada, saate teha peaaegu kõike.

Nanotehnoloogiast sai tõsine teadusvaldkond 1986. aastal, kui insener Eric Drexler tutvustas oma aluseid oma raamatus „Loomise masinad“, kuid Drexler ise usub, et need, kes tahavad rohkem teada saada kaasaegsetest nanotehnoloogia ideedest, peaksid lugema tema 2013. aasta raamatut. Täielik küllus (Radical Küllus).

Paar sõna "hallist"

Süveneme nanotehnoloogiasse sügavamalt. Eelkõige on teema "hall goo" üks nanotehnoloogia valdkonna mitte eriti meeldivaid teemasid, millest ei saa mööda vaadata. Nanotehnoloogia teooria vanemad versioonid pakkusid välja nano-kokkupaneku meetodi, mis hõlmas triljonite pisikeste nanorobotite loomist, mis aitaksid koos midagi luua. Üks võimalus triljonite nanorobotite loomiseks on luua selline, mis suudab ennast kopeerida, st üks kuni kaks, kaks kuni neli jne. Päevas ilmub mitu triljonit nanorobotit. See on eksponentsiaalse kasvu jõud. Naljakas, kas pole?

See on naljakas, kuid täpselt seni, kuni see viib apokalüpsiseni. Probleem on selles, et eksponentsiaalse kasvu jõud, mis teeb sellest üsna mugava viisi triljoni nanoboti kiireks loomiseks, muudab enese replikatsiooni pikas perspektiivis hirmutavaks. Mis saab siis, kui süsteem jookseb kokku ja selle asemel, et paar triljoni eest replikatsiooni peatada, jätkavad nanobotid paljunemist? Mis siis, kui kogu see protsess sõltub süsinikust? Maa biomass sisaldab 10 ^ 45 süsinikuaatomit. Nanobot peaks olema suurusjärgus 10 ^ 6 süsinikuaatomit, nii et 10 ^ 39 nanobotti neelab kogu elu Maal vaid 130 kordusega. Ookean nanobotidest ("hall goo") ujutab planeedi üle. Teadlased arvavad, et nanobotid võivad paljuneda 100 sekundiga, mis tähendab, et lihtne viga võib tappa kogu elu Maal vaid 3,5 tunniga.

See võib olla veelgi hullem - kui terroristid ja ebasoodsad spetsialistid jõuavad nanotehnoloogia kätte. Nad võiksid luua mitu triljonit nanobotti ja programmeerida need paari nädala pärast vaikselt kogu maailmas levima. Seejärel söövad nad ühe nupuvajutusega vaid 90 minutiga kõik, ilma igasuguse võimaluseta.

Kuigi seda õuduslugu on aastaid laialdaselt arutatud, on hea uudis see, et see on lihtsalt õuduslugu. Eric Drexler, kes lõi mõiste "hall goo", ütles hiljuti järgmist: "Inimesed armastavad õudusjutte ja see on üks zombie õuduslugudest. See idee iseenesest sööb juba ajusid."

Kui oleme jõudnud nanotehnoloogia põhja, saame selle abil luua tehnilisi seadmeid, riideid, toitu, biotooteid - vererakke, viiruste ja vähiga võitlejaid, lihaskoe jne - mida iganes. Ja maailmas, kus kasutatakse nanotehnoloogiat, ei ole materjali maksumus enam seotud selle nappuse ega tootmisprotsessi keerukusega, vaid pigem aatomistruktuuri keerukusega. Nanotehnoloogia maailmas võiks teemant olla odavam kui kustutuskumm.

Me pole seal isegi lähedal. Ja pole täiesti selge, kas me alahindame või ülehindame selle tee keerukust. Kõik läheb aga nii kaugele, et nanotehnoloogia pole enam kaugel. Kurzweil eeldab, et 2020. aastateks on need meil olemas. Maailmariigid teavad, et nanotehnoloogia võib lubada suurt tulevikku ja seetõttu investeerivad nad nendesse palju miljardeid.

Kujutage vaid ette, milliseid võimalusi saaks superintelligentsel arvutil, kui see jõuaks usaldusväärse nanomõõtmelise monteerijani. Kuid nanotehnoloogia on meie idee ja me proovime sellega sõita, see on meie jaoks raske. Mis siis, kui need on ISI -süsteemi jaoks lihtsalt nali ja ISI ise pakub välja tehnoloogiaid, mis on mitu korda võimsamad kui kõik, mida me põhimõtteliselt eeldada võime? Leppisime kokku: keegi ei kujuta ette, milleks tehislik superintellekt võimeline on? Arvatakse, et meie aju ei suuda ette näha isegi minimaalset, mis juhtub.

Mida saaks tehisintellekt meie heaks teha?

Pilt
Pilt

Relvastatud superintellekti ja kogu tehnoloogiaga, mida superintelligents võiks luua, suudab ISI tõenäoliselt lahendada kõik inimkonna probleemid. Globaalne soojenemine? ISI peatab kõigepealt süsinikuheite, leiutades hulga tõhusaid viise energia tootmiseks, mis ei ole seotud fossiilkütustega. Seejärel pakub ta välja tõhusa ja uuendusliku viisi liigse CO2 eemaldamiseks atmosfäärist. Vähk ja muud haigused? Pole probleem - tervishoid ja meditsiin muutuvad kujuteldamatult. Maailma nälg? ISI kasutab nanotehnoloogiat, et luua liha, mis on identne naturaalse, päris lihaga.

Nanotehnoloogia suudab muuta prügihunniku värske liha või muu toidu vaatiks (mitte tingimata isegi tavalisel kujul - kujutage ette hiiglaslikku õunakuubikut) ja levitada kogu seda toitu üle maailma, kasutades täiustatud transpordisüsteeme. Loomulikult sobib see suurepäraselt loomadele, kes ei pea enam toidu pärast surema. ISI saab teha ka palju muid asju, näiteks ohustatud liikide säilitamine või isegi väljasurnud DNA tagasi toomine. ISI suudab lahendada meie kõige raskemad makromajanduslikud probleemid - meie kõige raskemad majanduslikud vaidlused, eetilised ja filosoofilised küsimused, ülemaailmne kaubandus -, mis kõik on ISI -le valusalt ilmne.

Kuid ISI saab meie heaks midagi väga erilist teha. Ahvatlev ja ahvatlev, mis muudaks kõike: ISI aitab meil surelikkusega toime tulla … Mõistes järk -järgult tehisintellekti võimeid, vaatate võib -olla ümber kõik oma ideed surma kohta.

Evolutsioonil polnud põhjust pikendada meie eluiga enam kui praegu. Kui me elame piisavalt kaua, et sünnitada ja kasvatada lapsi nii kaugele, et nad saavad ise hakkama, piisab evolutsioonist. Evolutsioonilisest vaatenurgast piisab arenguks 30+ aastast ning mutatsioonidel pole põhjust eluiga pikendada ja loodusliku valiku väärtust vähendada. William Butler Yates nimetas meie liiki "hingeks, kes on seotud sureva loomaga". Mitte eriti lõbus.

Ja kuna me kõik sureme ühel päeval, elame mõttega, et surm on vältimatu. Me mõtleme vananemisele aja jooksul - jätkame edasiliikumist ja ei saa seda protsessi peatada. Kuid mõte surmast on reeturlik: selle tabamisel unustame elada. Richard Feynman kirjutas:

„Bioloogias on imeline asi: selles teaduses pole midagi, mis räägiks surma vajalikkusest. Kui tahame luua igavese liikumismasina, mõistame, et oleme leidnud füüsikast piisavalt seadusi, mis viitavad kas selle võimatusele või on seadused valed. Kuid bioloogias pole midagi, mis viitaks surma paratamatusele. See paneb mind uskuma, et see pole nii vältimatu ja on vaid aja küsimus, millal bioloogid selle probleemi, selle kohutava universaalse haiguse põhjuse avastavad, see ravitakse."

Fakt on see, et vananemisel pole ajaga mingit pistmist. Vananemine on siis, kui keha füüsilised materjalid kuluvad. Ka autoosad halvenevad - kuid kas vananemine on vältimatu? Kui parandate oma autot, kuna osad kuluvad, kestab see igavesti. Inimese keha pole erinev - lihtsalt keerulisem.

Kurzweil räägib intelligentsetest, WiFi-ühendusega nanobotidest vereringes, mis suudaksid täita inimeste tervisele lugematuid ülesandeid, sealhulgas korrapäraselt parandada või asendada kulunud rakke kõikjal kehas. Selle protsessi täiustamine (või nutikama ASI pakutud alternatiivi leidmine) ei hoia mitte ainult keha tervena, vaid võib ka vananemise tagasi pöörata. Erinevus 60-aastase ja 30-aastase keha vahel on käputäis füüsilisi probleeme, mida saaks õige tehnoloogia abil parandada. ISI võiks ehitada auto, kuhu inimene siseneb 60 -aastaselt ja lahkub 30 -aastaselt.

Isegi halvenenud aju võiks uuendada. ISI teaks kindlasti, kuidas seda teha ilma ajuandmeid (isiksust, mälestusi jne) mõjutamata. 90-aastane mees, kes kannatab aju täieliku halvenemise all, võib läbida ümberõppe, uueneda ja naasta oma elu algusesse. See võib tunduda absurdne, kuid keha on käputäis aatomeid ja ISI saaks kindlasti nendega, mis tahes aatomistruktuuridega, hõlpsasti manipuleerida. See pole nii absurdne.

Samuti usub Kurzweil, et kunstmaterjalid integreeruvad ajaga üha enam kehasse. Alustuseks võiks orelid asendada ülitäpsete masinaversioonidega, mis kestaksid igavesti ja ei läheks kunagi alt. Siis saaksime teha kogu keha ümberkujundamise, asendades punased verelibled täiuslike nanobotidega, mis liiguvad iseseisvalt, välistades vajaduse südame järele. Samuti võiksime parandada oma kognitiivseid võimeid, hakata miljardeid kordi kiiremini mõtlema ja pääseda pilve kaudu ligi kogu inimkonnale kättesaadavale teabele.

Võimalused uute horisontide mõistmiseks oleksid tõeliselt lõputud. Inimestel on õnnestunud seksile anda uus eesmärk, nad teevad seda naudingu, mitte ainult paljunemise pärast. Kurzweil usub, et saame sama teha ka toiduga. Nanobotid võivad pakkuda ideaalset toitumist otse keharakkudele, võimaldades ebatervislikel ainetel kehast läbi pääseda. Nanotehnoloogia teoreetik Robert Freitas on juba välja töötanud vererakkude asendaja, mis inimkehasse rakendatuna võimaldab tal 15 minutit mitte hingata - ja selle leiutas inimene. Kujutage ette, millal ISI saab võimu.

Lõppude lõpuks usub Kurzweil, et inimesed jõuavad punkti, kus nad muutuvad täiesti tehislikeks; aeg, mil me vaatame bioloogilisi materjale ja mõtleme, kui primitiivsed need olid; aeg, mil loeme inimajaloo varajastest etappidest, olles üllatunud, kuidas pisikud, õnnetused, haigused või lihtsalt vanadus võivad inimese tappa vastu tema tahtmist. Lõppkokkuvõttes alistavad inimesed oma bioloogia ja muutuvad igaveseks - see on tee tasakaalukiira õnnelikule poolele, millest oleme algusest peale rääkinud. Ja inimesed, kes sellesse usuvad, on samuti kindlad, et selline tulevik ootab meid väga -väga varsti.

Tõenäoliselt ei üllata teid, et Kurzweili ideed on pälvinud tugevat kriitikat. Selle ainulaadsust aastal 2045 ja sellele järgnenud igavest elu inimestele nimetati "nohikute taevaminemiseks" või "inimeste intelligentseks loomiseks, kelle IQ on 140". Teised seadsid kahtluse alla optimistliku ajaraamistiku, inimkeha ja aju mõistmise, tuletades meelde Moore'i seadust, mis pole veel kuhugi kadunud. Iga eksperdi kohta, kes usub Kurzweili ideedesse, on kolm, kes arvavad, et ta eksib.

Kõige huvitavam on aga see, et enamik eksperte, kes temaga ei nõustu, üldiselt ei ütle, et see on võimatu. Selle asemel, et öelda "jama, seda ei juhtu kunagi", ütlevad nad midagi sellist: "kõik see juhtub, kui jõuame ISI -sse, kuid see on probleem." Bostrom, üks tunnustatud tehisintellekti ekspertidest, kes hoiatab AI ohtude eest, tunnistab ka:

"Vaevalt on jäänud ühtegi probleemi, mida superintelligents ei suuda lahendada või isegi aidata meil lahendada. Haigused, vaesus, keskkonna hävitamine, igasugused kannatused - kogu see superintelligents nanotehnoloogia abil suudab hetkega lahendada. Superintelligents võib anda meile ka piiramatu eluea, peatades ja pöörates vananemisprotsessi nanomeditsiini abil või võime meid pilve üles laadida. Superintelligentsus võib luua ka võimalusi intellektuaalsete ja emotsionaalsete võimete lõputuks suurendamiseks; ta võib aidata meil luua maailma, kus me elame rõõmu ja mõistmisega, lähenedes oma ideaalidele ja tehes regulaarselt oma unistusi."

See on aga tsitaat Kurzweili ühelt kriitikult, kes möönab, et see kõik on võimalik, kui suudame luua turvalise ASI. Kurzweil määratles lihtsalt, milliseks tehislikuks superintellektiks peaks saama, kui see vähegi võimalik on. Ja kui ta on hea jumal.

Mugavustsoonide pooldajate kõige ilmsem kriitika on see, et ISI tulevikku hinnates võivad nad eksida. Kurzweil pühendas oma raamatus “Singulaarsus” 20 lehekülge 700 -st võimalikust ISI ohust. Küsimus pole selles, millal jõuame ISIni, vaid küsimus on selles, mis saab olema selle motivatsioon. Kurzweil vastab sellele küsimusele ettevaatlikult: „ISI tuleneb paljudest erinevatest jõupingutustest ja integreeritakse sügavalt meie tsivilisatsiooni infrastruktuuri. Tegelikult on see tihedalt põimitud meie kehasse ja ajusse. Ta peegeldab meie väärtusi, sest ta on meiega üks."

Aga kui vastus on, miks on siin maailmas nii paljud targad inimesed tehisintellekti tuleviku pärast mures? Miks ütleb Stephen Hawking, et ISI areng "võib tähendada inimkonna lõppu"? Bill Gates ütleb, et ta "ei mõista inimesi, keda see ei häiri". Elon Musk kardab, et me kutsume deemoni välja. Miks peavad paljud eksperdid ISI -d inimkonna suurimaks ohuks?

Sellest räägime järgmisel korral.

Soovitan: