Voor u is die tweede deel van 'n artikel uit die reeks "Wag, hoe kan dit alles werklik wees, waarom word daar nog nie op elke hoek gepraat nie?" In die vorige reeks het dit bekend geword dat 'n ontploffing van intelligensie geleidelik na die mense van die planeet Aarde kom, dit probeer ontwikkel van nou gefokus tot universele intelligensie en uiteindelik kunsmatige superintelligensie.
'Miskien staan ons voor 'n uiters moeilike probleem, en dit is nie bekend hoeveel tyd daaraan bestee word nie, maar die toekoms van die mensdom kan afhang van die oplossing daarvan. - Nick Bostrom.
Die eerste deel van die artikel het onskuldig genoeg begin. Ons het 'n nou gefokusde kunsmatige intelligensie bespreek (AI, wat spesialiseer in die oplossing van een spesifieke probleem, soos om roetes te bepaal of om skaak te speel), daar is baie in ons wêreld. Toe ontleed hulle waarom dit so moeilik is om algemene rigtinggewende kunsmatige intelligensie te laat groei (AGI, of AI, wat in terme van intellektuele vermoëns met 'n mens kan vergelyk om enige probleem op te los), so moeilik is. Ons het tot die gevolgtrekking gekom dat die eksponensiële tempo van tegnologiese vooruitgang daarop dui dat AGI binnekort om die draai kan wees. Uiteindelik het ons besluit dat sodra masjiene menslike intelligensie bereik het, die volgende onmiddellik kan gebeur:
Soos gewoonlik kyk ons na die skerm, sonder om te glo dat kunsmatige superintelligensie (ISI, wat baie slimmer is as enige persoon) gedurende ons leeftyd kan verskyn, en emosies kies wat ons mening ten beste oor hierdie kwessie kan weerspieël.
Voordat ons in die besonderhede van ISI ingaan, moet ons ons daaraan herinner wat dit beteken dat 'n masjien superintelligent is.
Die belangrikste verskil lê tussen vinnige superintelligensie en kwaliteit superintelligensie. Dikwels is die eerste ding wat by u opkom as u aan 'n superintelligente rekenaar dink, dat dit baie vinniger as 'n persoon kan dink - miljoene kere vinniger, en binne vyf minute sal dit begryp wat dit tien jaar sou neem. ("Ek ken kung fu!")
Dit klink indrukwekkend, en die ISI behoort regtig vinniger te dink as enige ander - maar die belangrikste kenmerk is die kwaliteit van sy intelligensie, wat heeltemal anders is. Mense is baie slimmer as ape, nie omdat hulle vinniger dink nie, maar omdat hul brein 'n aantal vindingryke kognitiewe modules bevat wat komplekse taalkundige voorstellings, langtermynbeplanning, abstrakte denke uitvoer, waartoe ape nie in staat is nie. As u die brein van 'n aap duisend maal versnel, word dit nie slimmer as ons nie - selfs na tien jaar sal dit nie 'n konstrukteur kan saamstel volgens die instruksies nie, wat 'n persoon hoogstens 'n paar uur sou neem. Daar is dinge wat 'n aap nooit sal leer nie, ongeag hoeveel ure hy spandeer of hoe vinnig sy brein werk.
Boonop weet die aap nie hoe menslik nie, omdat sy brein eenvoudig nie die bestaan van ander wêrelde kan besef nie - die aap weet moontlik wat 'n persoon is en wat 'n wolkekrabber is, maar sal nooit verstaan dat 'n wolkekrabber gebou is deur mense. In haar wêreld behoort alles aan die natuur, en die makaak kan nie net 'n wolkekrabber bou nie, maar verstaan ook dat almal dit kan bou. En dit is die gevolg van 'n klein verskil in die kwaliteit van intelligensie.
In die algemene skema van intelligensie waarvan ons praat, of bloot volgens die standaarde van biologiese wesens, is die verskil in die kwaliteit van intelligensie tussen mense en ape klein. In die vorige artikel het ons biologiese kognitiewe vermoëns op 'n leer geplaas:
Om te verstaan hoe ernstig 'n superintelligente masjien sal wees, plaas dit twee kerwe hoër as die persoon op die leer. Hierdie masjien is miskien net 'n bietjie superintelligent, maar sy superioriteit bo ons kognitiewe vermoëns is dieselfde as ons s'n - bo die ape. En net soos 'n sjimpansee nooit sal verstaan dat 'n wolkekrabber gebou kan word nie, sal ons nooit verstaan wat 'n masjien wat 'n paar stappe hoër sal verstaan nie, selfs al probeer die masjien dit aan ons verduidelik. Maar dit is net 'n paar stappe. Die slimmer masjien sal miere in ons sien - dit sal ons jare lank die eenvoudigste dinge uit sy posisie leer, en hierdie pogings sal heeltemal hopeloos wees.
Die tipe superintelligensie waaroor ons vandag sal praat, lê ver buite hierdie leer. Dit is 'n ontploffing van intelligensie - as die motor slimmer word, hoe vinniger kan hy sy eie intelligensie verhoog en die momentum geleidelik toeneem. Dit kan jare neem voordat 'n masjien soos hierdie sjimpansees in intelligensie oortref, maar miskien 'n paar uur om ons met 'n paar kerwe te oortref. Van daardie oomblik af kan die motor elke sekonde al oor vier tree spring. Daarom moet ons verstaan dat ons baie gou na die eerste nuus dat die masjien die vlak van menslike intelligensie bereik het, die realiteit van naasbestaan op aarde in die gesig staar met iets wat baie hoër is as ons op hierdie leer (of miskien, en miljoene maal hoër):
En aangesien ons vasgestel het dat dit heeltemal nutteloos is om die krag van 'n masjien wat net twee stappe bo ons is, te probeer verstaan, laat ons eens en vir altyd definieer dat daar geen manier is om te verstaan wat die ISI sal doen nie en wat die gevolge daarvan is dit sal vir ons wees. Almal wat die teendeel beweer, verstaan eenvoudig nie wat superintelligensie beteken nie.
Evolusie het die biologiese brein stadig en geleidelik oor honderde miljoene jare ontwikkel, en as mense 'n superintelligente masjien skep, sal ons in 'n sekere sin evolusie oortref. Of dit sal deel wees van evolusie - miskien werk evolusie so dat intelligensie geleidelik ontwikkel totdat dit 'n keerpunt bereik wat 'n nuwe toekoms vir alle lewende dinge inlui:
Om redes wat ons later sal bespreek, glo 'n groot deel van die wetenskaplike gemeenskap dat die vraag nie is of ons by hierdie kantelpunt sal kom nie, maar wanneer.
Waar eindig ons hierna?
Ek dink niemand in hierdie wêreld nie, nie ek of jy nie, sal kan sê wat sal gebeur as ons die kantelpunt bereik. Die Oxford -filosoof en toonaangewende AI -teoretikus Nick Bostrom glo dat ons alle moontlike uitkomste in twee breë kategorieë kan kook.
As ons eers na die geskiedenis kyk, weet ons die volgende oor die lewe: spesies verskyn, bestaan vir 'n sekere tyd en val dan onvermydelik van die weegskaal af en sterf uit.
'Alle spesies sterf uit' was 'n net so betroubare reël in die geskiedenis as 'alle mense sterf eendag'. 99,9% van die spesies het uit 'n logboek geval, en dit is duidelik dat as 'n spesie te lank aan hierdie hout hang, 'n storm van natuurlike wind of 'n skielike asteroïde die boomstomp sal omkeer. Bostrom noem uitwissing die toestand van 'n aantrekker - 'n plek waar alle spesies balanseer om nie te val waar geen spesie nog teruggekeer het nie.
En hoewel die meeste wetenskaplikes erken dat ISI die vermoë sal hê om mense tot uitsterwing te verdoem, glo baie ook dat die gebruik van die vermoëns van ISI individue (en die spesie as geheel) in staat sal stel om die tweede toestand van die aantrekker - spesie -onsterflikheid - te bereik. Bostrom glo dat die onsterflikheid van 'n spesie net so 'n aantrekkingskrag is as die uitsterwing van 'n spesie, dit wil sê, as ons hierby uitkom, is ons gedoem tot die ewige bestaan. Selfs al sou alle spesies tot dusver van hierdie stok in die maalstroom van uitsterwing val, meen Bostrom dat die hout twee kante het, en dat daar eenvoudig nie so 'n intelligensie op aarde verskyn het wat sou verstaan hoe om na die ander kant te val nie.
As Bostrom en ander reg is, en te oordeel na al die inligting wat ons beskikbaar het, kan dit ook so wees, moet ons twee baie skokkende feite aanvaar:
Die opkoms van ISI vir die eerste keer in die geskiedenis sal die weg oopmaak vir 'n spesie om onsterflikheid te bereik en uit die noodlottige siklus van uitsterwing te val.
Die opkoms van ISI sal so 'n onvoorstelbare groot impak hê dat dit heel waarskynlik die mensdom in die een of ander rigting van hierdie log sal stoot.
Dit is moontlik dat wanneer evolusie so 'n keerpunt bereik, dit altyd 'n einde maak aan die verhouding van mense met die lewensstroom en 'n nuwe wêreld skep, met of sonder mense.
Dit lei tot 'n interessante vraag wat slegs 'n ongemaklike vraag nie sou stel nie: wanneer kom ons by hierdie kantelpunt en waar sal dit ons bring? Niemand ter wêreld ken die antwoord op hierdie dubbele vraag nie, maar baie slim mense het dit dekades lank probeer uitvind. Vir die res van die artikel sal ons uitvind waar hulle vandaan kom.
* * *
Kom ons begin met die eerste deel van hierdie vraag: wanneer moet ons die kantelpunt bereik? Met ander woorde: hoeveel tyd is daar oor totdat die eerste masjien superintelligensie bereik?
Menings verskil van geval tot geval. Baie, insluitend professor Vernor Vinge, wetenskaplike Ben Herzel, mede-stigter van Sun Microsystems, Bill Joy, futuris Ray Kurzweil, het met masjienleerkundige Jeremy Howard ooreengekom toe hy die volgende grafiek by TED Talk voorgehou het:
Hierdie mense deel die mening dat ISI binnekort kom - hierdie eksponensiële groei, wat vir ons stadig lyk, sal letterlik in die volgende paar dekades ontplof.
Ander, soos mede-stigter van Microsoft, Paul Allen, navorsingsielkundige Gary Marcus, rekenaarkenner Ernest Davis en tegnologie-entrepreneur Mitch Kapor, meen dat denkers soos Kurzweil die omvang van die probleem ernstig onderskat en dink dat ons nie naastenby so naby aan 'n keerpunt.
Kurzweil se kamp voer aan dat die enigste onderskatting wat plaasvind, die minagting van eksponensiële groei is, en die twyfelaars kan vergelyk word met diegene wat na die stadig groeiende internet in 1985 gekyk het en aangevoer het dat dit in die nabye toekoms geen invloed op die wêreld sou hê nie.
Twyfelaars kan afweer dat dit moeiliker is vir vooruitgang om elke volgende stap te neem as dit kom by die eksponensiële ontwikkeling van intelligensie, wat die tipiese eksponensiële aard van tegnologiese vooruitgang neutraliseer. Ens.
Die derde kamp, waarin Nick Bostrom is, stem nie saam met die eerste of die tweede nie en voer aan dat a) dit alles in die nabye toekoms absoluut kan gebeur; en b) daar is geen waarborg dat dit enigsins sal gebeur of dat dit langer sal neem nie.
Ander, soos die filosoof Hubert Dreyfus, glo dat al drie groepe naïef glo dat daar hoegenaamd 'n keerpunt sal wees, en dat ons waarskynlik nooit by ISI sal uitkom nie.
Wat gebeur as ons al hierdie menings saamvoeg?
In 2013 het Bostrom 'n opname gedoen waarin hy honderde AI -kundiges ondervra het tydens 'n reeks konferensies oor die volgende onderwerp: "Wat sal u voorspellings wees om AGI op menslike vlak te bereik?" en het ons gevra om 'n optimistiese jaar te noem (waarin ons AGI met 'n kans van 10 persent het), 'n realistiese aanname ('n jaar waarin ons AGI met 'n waarskynlikheid van 50 persent sal hê) en 'n selfversekerde aanname (die vroegste jaar waarin AGI verskyn sedert die waarskynlikheid van 90 persent). Hier is die uitslae:
* Gemiddelde optimistiese jaar (10%): 2022
* Gemiddelde realistiese jaar (50%): 2040
* Gemiddelde pessimistiese jaar (90%): 2075
Gemiddelde respondente glo dat ons oor 25 jaar eerder AGI sal hê as nie. 'N 90 persent kans dat AGI teen 2075 sou plaasvind, beteken dat as u nog redelik jonk is, dit waarskynlik in u leeftyd sal gebeur.
'N Afsonderlike studie wat onlangs deur James Barratt gedoen is (skrywer van die bekroonde en baie goeie boek Our Latest Invention, uittreksels uit Ek het dit onder die aandag van lesers gestel Hi-News.ru) en Ben Hertzel op die AGI-konferensie, die jaarlikse AGI-konferensie, het bloot mense se opinies getoon oor die jaar waarin ons by AGI kom: 2030, 2050, 2100, later of nooit. Hier is die uitslae:
* 2030: 42% van die respondente
* 2050: 25%
* 2100: 20%
Na 2100: 10%
Nooit: 2%
Soortgelyk aan die resultate van Bostrom. In die peiling van Barratt glo meer as twee derdes van die ondervraagdes dat AGI teen 2050 hier sal wees, en minder as die helfte glo dat AGI in die volgende 15 jaar sal verskyn. Dit is ook opvallend dat slegs 2% van die respondente AGI in beginsel nie in ons toekoms sien nie.
Maar AGI is nie 'n keerpunt soos ISI nie. Wanneer sal ons volgens kenners 'n ISI hê?
Bostrom het die kundiges gevra wanneer ons ASI sal bereik: a) twee jaar nadat ons AGI bereik het (dit wil sê byna onmiddellik as gevolg van 'n ontploffing van intelligensie); b) na 30 jaar. Resultate?
Die gemiddelde mening is dat die vinnige oorgang van AGI na ISI met 'n waarskynlikheid van 10% sal plaasvind, maar oor 30 jaar of minder sal dit met 'n waarskynlikheid van 75% plaasvind.
Uit hierdie gegewens weet ons nie op watter datum respondente 'n 50 persent kans op 'n ASI sou noem nie, maar laat ons aanvaar dat dit 20 jaar is op grond van die twee antwoorde hierbo. Dit wil sê, die wêreld se voorste AI -kundiges glo dat die keerpunt in 2060 sal kom (AGI verskyn in 2040 + dit sal 20 jaar neem vir die oorgang van AGI na ISI).
Al die bogenoemde statistieke is natuurlik spekulatief en verteenwoordig bloot die mening van kundiges op die gebied van kunsmatige intelligensie, maar dit dui ook aan dat die meeste belangstellendes dit eens is dat AI teen 2060 waarskynlik sal kom. In net 45 jaar.
Kom ons gaan na die tweede vraag. Watter kant van die noodlottige keuse sal ons bepaal wanneer ons by die kantelpunt kom?
Superintelligensie sal die sterkste krag hê, en die kritieke vraag vir ons is die volgende:
Wie of wat sal hierdie mag beheer en wat sal hul motivering wees?
Die antwoord op hierdie vraag sal afhang of die ISI 'n ongelooflike kragtige ontwikkeling, 'n ontsaglike skrikwekkende ontwikkeling of iets tussenin kry.
Natuurlik probeer die deskundige gemeenskap ook hierdie vrae beantwoord. Bostrom se peiling ontleed die waarskynlikheid van moontlike gevolge van die impak van AGI op die mensdom, en dit het geblyk dat met 'n 52 persent kans alles baie goed sal gaan en met 'n 31 persent kans dat alles sleg of uiters sleg gaan. Die peiling wat aan die einde van die vorige deel van hierdie onderwerp aangeheg is onder u, liewe lesers van Hi-News, toon ongeveer dieselfde resultate. Vir 'n relatief neutrale uitkoms was die waarskynlikheid slegs 17%. Met ander woorde, ons glo almal dat AGI 'n groot probleem gaan wees. Dit is ook opmerklik dat hierdie opname betrekking het op die opkoms van AGI - in die geval van ISI, sal die persentasie neutraliteit laer wees.
Voordat ons dieper nadink oor die goeie en slegte kante van die vraag, laat ons albei kante van die vraag kombineer - "wanneer sal dit gebeur?" en "is dit goed of sleg?" in 'n tabel wat die menings van die meeste kenners dek.
Ons praat binne 'n minuut oor die hoofkamp, maar besluit eers oor u posisie. Die kans is goed dat u op dieselfde plek was as wat ek was voordat ek aan hierdie onderwerp begin werk het. Daar is verskeie redes waarom mense glad nie aan hierdie onderwerp dink nie:
* Soos in die eerste deel genoem, het die rolprente mense en feite ernstig verwar, met onrealistiese scenario's met kunsmatige intelligensie, wat daartoe gelei het dat ons AI glad nie ernstig moet opneem nie. James Barratt het hierdie situasie vergelyk met die uitreiking van die Centers for Disease Control (CDC) met 'n ernstige waarskuwing oor vampiere in ons toekoms.
* As gevolg van sogenaamde kognitiewe vooroordele, is dit vir ons baie moeilik om te glo dat iets werklik is totdat ons bewyse het. 'N Mens kan jou met vertroue voorstel dat die rekenaarwetenskaplikes van 1988 gereeld die verreikende gevolge van die internet bespreek en wat dit kan word, maar mense het skaars geglo dat dit hul lewens sou verander totdat dit werklik gebeur het. Dit is net dat rekenaars in 1988 nie geweet het hoe om dit te doen nie, en mense het net na hul rekenaars gekyk en gedink: 'Regtig? Is dit wat die wêreld sal verander?” Hulle verbeelding is beperk deur wat hulle uit persoonlike ervaring geleer het, hulle het geweet wat 'n rekenaar is, en dit was moeilik om te dink waartoe 'n rekenaar in die toekoms in staat sou wees. Dieselfde gebeur nou met AI. Ons het gehoor dat dit 'n ernstige saak sal word, maar aangesien ons dit nog nie van aangesig tot aangesig teëgekom het nie, en in die algemeen sien ons taamlik swak manifestasies van AI in ons moderne wêreld, is dit nogal moeilik vir ons om te glo dat dit radikaal sal gebeur ons lewe verander. Dit is teen hierdie vooroordele dat talle kundiges uit alle kampe sowel as belangstellendes daarteen gekant is om ons aandag te probeer trek deur die geraas van alledaagse kollektiewe egosentrisme.
* Selfs as ons in dit alles geglo het - hoeveel keer het u vandag daaraan gedink dat u die res van die ewigheid in niks sal deurbring? Bietjie, stem saam. Selfs as hierdie feit baie belangriker is as enigiets wat u daagliks doen. Dit is omdat ons brein gewoonlik gefokus is op klein alledaagse dinge, ongeag hoe 'n wanindruk die langtermyn-situasie is. Dit is net dat ons gemaak is.
Een van die doelwitte van hierdie artikel is om u uit die kamp te kry, genaamd 'Ek hou daarvan om na te dink oor ander dinge' en u in die deskundige kamp te plaas, selfs al staan u net op die kruispad tussen die twee stippellyne op die plein hierbo, heeltemal onbeslis.
In die loop van die navorsing word dit duidelik dat die menings van die meeste mense vinnig na die 'hoofkamp' dryf, en driekwart van die kundiges val in twee subkampe in die hoofkamp.
Ons sal albei hierdie kampe ten volle besoek. Kom ons begin met pret.
Waarom kan die toekoms ons grootste droom wees?
Terwyl ons die AI -wêreld verken, vind ons verbasend baie mense in ons gemaksone. Die mense in die regter boonste plein gons van opgewondenheid. Hulle glo dat ons aan die goeie kant van die hout sal val, en hulle glo ook dat ons noodwendig hierop sal uitkom. Vir hulle is die toekoms net die beste waaroor slegs gedroom kan word.
Die punt wat hierdie mense van ander denkers onderskei, is nie dat hulle aan die gelukkige kant wil wees nie - maar dat hulle seker is dat dit sy is wat op ons wag.
Hierdie vertroue kom uit kontroversie. Kritici meen dit kom van 'n skitterende opwinding wat moontlike negatiewe kante oorskadu. Maar voorstanders sê somber voorspellings is altyd naïef; tegnologie gaan voort en sal ons altyd meer help as om ons te benadeel.
U is vry om enige van hierdie menings te kies, maar sit skeptisisme opsy en kyk goed na die gelukkige kant van die balansbalke, probeer om te aanvaar dat alles waaroor u gelees het, moontlik al gebeur het. As u aan jagter -versamelaars ons wêreld van gemak, tegnologie en eindelose oorvloed wys, lyk dit vir hulle 'n magiese fiksie - en ons gedra ons redelik beskeie en kan nie erken dat dieselfde onverstaanbare transformasie in die toekoms op ons wag nie.
Nick Bostrom beskryf drie paaie wat 'n superintelligente AI -stelsel kan volg:
* 'N Orakel wat enige presiese vraag kan beantwoord, insluitend moeilike vrae wat mense nie kan beantwoord nie - byvoorbeeld: "hoe om 'n motor -enjin doeltreffender te maak?" Google is 'n primitiewe tipe 'orakel'.
* 'N Genie wat enige opdrag op hoë vlak sal uitvoer - met behulp van molekulêre samesteller om 'n nuwe, meer doeltreffende weergawe van 'n motormotor te skep - en wag vir die volgende opdrag.
* 'N Soewerein met wye toegang en die vermoë om vrylik in die wêreld te funksioneer, sy eie besluite te neem en die proses te verbeter. Hy sal 'n goedkoper, vinniger en veiliger manier van privaat vervoer bedink as 'n motor.
Hierdie vrae en take, wat vir ons moeilik lyk, sal vir die superintelligente stelsel lyk asof iemand gevra het om die situasie te verbeter "my potlood het van die tafel af geval", waarin u dit eenvoudig sou optel en terugsit.
Eliezer Yudkowski, 'n Amerikaanse spesialis in kunsmatige intelligensie, het dit goed gestel:
'Daar is geen moeilike probleme nie, slegs probleme wat moeilik is vir 'n sekere vlak van intelligensie. Gaan 'n stap hoër (in terme van intelligensie), en sommige probleme gaan skielik van die kategorie 'onmoontlik' na die kamp van 'voor die hand liggend'. Een stap hoër - en hulle sal almal duidelik word."
Daar is baie ongeduldige wetenskaplikes, uitvinders en entrepreneurs wat 'n gebied van selfvertroue uit ons tafel gekies het, maar ons benodig net een gids om die beste in hierdie beste wêrelde te wandel.
Ray Kurzweil is dubbelsinnig. Sommige verafgod sy idees, sommige verag hom. Sommige bly in die middel - Douglas Hofstadter, wat die idees van die boeke van Kurzweil bespreek, sê welsprekend dat "dit is asof jy baie lekker kos en 'n bietjie honde -poep geneem het, en dan alles op so 'n manier gemeng het dat dit onmoontlik is om te verstaan wat goed en wat sleg is."
Of jy nou van sy idees hou of nie, dit is onmoontlik om dit deur te gee sonder 'n skaduwee van belangstelling. Hy het as tiener dinge begin uitvind, en in die daaropvolgende jare het hy verskeie belangrike dinge uitgevind, waaronder die eerste platskandeerder, die eerste skandeerder wat teks in spraak kon omskakel, die bekende Kurzweil-musieksintetiseerder (die eerste regte elektriese klavier), en die eerste kommersieel suksesvolle spraakherkener. Hy is ook die skrywer van vyf opspraakwekkende boeke. Kurzweil word waardeer vir sy gewaagde voorspellings, en sy rekord is redelik goed - in die laat 80's, toe die internet nog in die kinderskoene was, het hy voorspel dat die web teen die 2000's 'n wêreldwye verskynsel sou word. Die Wall Street Journal noem Kurzweil 'n 'rustelose genie', 'Forbes' ''n wêreldwye denkmasjien', Inc. Tydskrif - "Edison se regmatige erfgenaam", Bill Gates - "die beste van diegene wat die toekoms van kunsmatige intelligensie voorspel." In 2012 het Larry Page, medestigter van Google, Kurzweil uitgenooi na die pos van CTO. In 2011 was hy mede-stigter van Singularity University, wat deur NASA aangebied word en gedeeltelik deur Google geborg word.
Sy biografie maak saak. As Kurzweil praat oor sy toekomsvisie, klink dit na 'n mal gek, maar die wonderlike ding daarvan is dat hy ver van mal is - hy is 'n ongelooflike slim, geleerde en gesonde persoon. U dink miskien dat hy verkeerd is in sy voorspellings, maar hy is nie 'n dwaas nie. Kurzweil se voorspellings word gedeel deur baie kundiges in die gemaksone, Peter Diamandis en Ben Herzel. Dit is wat hy dink sal gebeur.
Chronologie
Kurzweil glo dat rekenaars teen 2029 die algemene kunsmatige intelligensie (AGI) sal bereik, en teen 2045 sal ons nie net kunsmatige superintelligensie hê nie, maar ook 'n heeltemal nuwe wêreld - die tyd van die sogenaamde singulariteit. Die chronologie van AI word nog steeds as buitensporig oordrewe beskou, maar die vinnige ontwikkeling van hoogs gefokusde kunsmatige intelligensie (AI) -stelsels het die afgelope 15 jaar baie kenners genoop om met Kurzweil saam te werk. Sy voorspellings is nog meer ambisieus as dié in Bostrom se opname (AGI teen 2040, ISI teen 2060), maar nie veel nie.
Volgens Kurzweil word die singulariteit van 2045 gedryf deur drie gelyktydige omwentelinge in biotegnologie, nanotegnologie en, nog belangriker, AI. Maar voordat ons voortgaan - en nanotegnologie volg kunsmatige intelligensie noukeurig - laat ons 'n rukkie neem vir nanotegnologie.
'N Paar woorde oor nanotegnologie
Ons noem gewoonlik nanotegnologie-tegnologieë wat handel oor die manipulasie van materie in die gebied van 1-100 nanometer. 'N Nanometer is 'n miljardste van 'n meter, of 'n miljoenste van 'n millimeter; binne die omvang van 1-100 nanometer kan virusse (100 nm in deursnee), DNA (10 nm in breedte), hemoglobienmolekules (5 nm), glukose (1 nm) en ander geakkommodeer word. As nanotegnologie ooit aan ons onderwerp word, is die volgende stap om individuele atome wat minder as een grootte orde is (~, 1 nm) te manipuleer.
Om te verstaan waar mense probleme ondervind om materie op so 'n skaal te manipuleer, laat ons na 'n groter skaal spring. Die Internasionale Ruimtestasie is 481 kilometer bo die aarde. As mense reuse was en die ISS met hul koppe slaan, sou hulle 250 000 keer groter wees as wat hulle nou is. As u iets van 1 tot 100 nanometer 250 000 keer vergroot, kry u 2,5 sentimeter. Nanotegnologie is die ekwivalent van 'n mens wat om die ISS wentel en dinge probeer manipuleer wat die grootte van 'n sandkorrel of 'n oogbal is. Om na die volgende vlak te kom - die beheer van individuele atome - sal die reus voorwerpe met 'n deursnee van 1/40 millimeter noukeurig moet plaas. Gewone mense benodig 'n mikroskoop om dit te sien.
Vir die eerste keer het Richard Feynman in 1959 oor nanotegnologie gepraat. Daarna het hy gesê: “Die beginsels van fisika spreek, sover ek kan sien, nie die moontlikheid om dinge atoom vir atoom te beheer nie. In beginsel kan 'n fisikus enige chemikalie wat 'n chemikus neergeskryf het, sintetiseer. Hoe? Deur atome te plaas waar die apteker sê om die stof te kry. Dit is die hele eenvoud. As u weet hoe om individuele molekules of atome te beweeg, kan u byna alles doen.
Nanotegnologie het in 1986 'n ernstige wetenskaplike gebied geword toe ingenieur Eric Drexler sy grondslag in sy boek Machines of Creation voorgestel het, maar Drexler glo self dat diegene wat meer wil leer oor moderne idees in nanotegnologie, sy boek van 2013 moet lees. Full Abundance (Radical) Oorvloed).
'N Paar woorde oor "grys goo"
Ons verdiep dieper in nanotegnologie. In die besonder is die onderwerp "grys goo" een van die nie baie aangename onderwerpe op die gebied van nanotegnologie, wat nie geïgnoreer kan word nie. Ouer weergawes van die teorie van nanotegnologie het 'n nano-samestellingsmetode voorgestel wat die skepping van biljoene klein nanorobotte insluit wat saamwerk om iets te skep. Een manier om biljoene nanorobotte te skep, is om een te skep wat self kan repliseer, dit wil sê van een na twee, van twee tot vier, ensovoorts. Verskeie biljoene nanorobotte verskyn binne 'n dag. Dit is die krag van eksponensiële groei. Snaaks, is dit nie?
Dit is snaaks, maar presies totdat dit tot die apokalips lei. Die probleem is dat die krag van eksponensiële groei, wat dit 'n redelike maklike manier maak om vinnig 'n biljoen nanobotte te skep, selfreplikasie op die lange duur 'n skrikwekkende ding maak. Wat as die stelsel ineenstort en nanobotte voortgaan om te teel in plaas van om te repliseer vir 'n paar biljoen? Wat as hierdie hele proses van koolstof afhang? Die biomassa van die aarde bevat 10 ^ 45 koolstofatome. 'N Nanobot behoort in die orde van 10 ^ 6 koolstofatome te wees, dus sal 10 ^ 39 nanobotte alle lewe op aarde in slegs 130 herhalings verslind. 'N Oseaan van nanobotte ("grys goo") sal die planeet oorstroom. Wetenskaplikes dink dat nanobotte binne 100 sekondes kan herhaal, wat beteken dat 'n eenvoudige fout alle lewe op aarde in slegs 3,5 uur kan doodmaak.
Dit kan nog erger wees - as terroriste en ongunstige spesialiste die hande van nanotegnologie bereik. Hulle kan verskeie biljoene nanobotte skep en hulle programmeer om binne 'n paar weke rustig oor die hele wêreld te versprei. Dan, met 'n druk van 'n knoppie, sal hulle binne 90 minute alles eet, sonder kans.
Alhoewel hierdie gruwelverhaal jare lank wyd bespreek is, is die goeie nuus dat dit net 'n gruwelverhaal is. Eric Drexler, wat die term "grey goo" bedink het, het onlangs die volgende gesê: "Mense hou van gruwelverhale, en dit is een van die zombie -horrorverhale. Hierdie idee op sigself is reeds besig om breine te eet."
Sodra ons die nanotegnologie bereik het, kan ons dit gebruik om tegniese toestelle, klere, voedsel, bioprodukte - bloedselle, virus- en kankervegters, spierweefsel, ensovoorts te maak - wat ook al. En in 'n wêreld wat nanotegnologie gebruik, is die koste van 'n materiaal nie meer gekoppel aan die skaarste of die kompleksiteit van die vervaardigingsproses nie, maar eerder aan die kompleksiteit van die atoomstruktuur. In die wêreld van nanotegnologie kan 'n diamant goedkoper wees as 'n uitveër.
Ons is nog nie eers daar naby nie. En dit is nie heeltemal duidelik of ons die kompleksiteit van hierdie pad onderskat of oorskat nie. Alles gaan egter tot die punt dat nanotegnologie nie ver is nie. Kurzweil aanvaar dat ons dit teen die 2020's sal hê. Die wêreldstate weet dat nanotegnologie 'n groot toekoms kan beloof, en daarom belê hulle baie miljarde daarin.
Stel jou net voor watter moontlikhede 'n superintelligente rekenaar sou kry as dit by 'n betroubare nanoskaalassembler sou kom. Maar nanotegnologie is ons idee, en ons probeer dit ry, dit is vir ons moeilik. Wat as dit net 'n grap vir die ISI -stelsel is, en die ISI self kom met tegnologieë wat baie keer kragtiger sal wees as enigiets wat ons in beginsel kan aanneem? Ons was dit eens: niemand kan u voorstel waartoe kunsmatige superintelligensie in staat sal wees nie? Daar word geglo dat ons brein nie eers die minimum kan voorspel wat sal gebeur nie.
Wat kan AI vir ons doen?
Gewapen met superintelligensie en al die tegnologie wat superintelligensie kan skep, sal ISI waarskynlik al die probleme van die mensdom kan oplos. Aardverwarming? ISI sal eers koolstofvrystellings stop deur 'n magdom doeltreffende maniere uit te vind om energie op te wek wat nie verband hou met fossielbrandstowwe nie. Hy sal dan 'n effektiewe, innoverende manier kry om oortollige CO2 uit die atmosfeer te verwyder. Kanker en ander siektes? Geen probleem nie - gesondheidsorg en medisyne sal verander op 'n ondenkbare manier. Wêreldhonger? ISI sal nanotegnologie gebruik om vleis te skep wat identies is aan natuurlike, van nuuts af, egte vleis.
Nanotegnologie sal 'n hoop vullis in 'n vat vars vleis of ander voedsel kan omskep (nie noodwendig in die gewone vorm nie - stel 'n reuse appelblokkie voor) en versprei al hierdie voedsel deur middel van gevorderde vervoerstelsels. Dit sal natuurlik wonderlik wees vir diere wat nie meer vir voedsel hoef te sterf nie. ISI kan ook baie ander dinge doen, soos die bewaring van bedreigde spesies, of selfs die uitsterwing van gestoorde DNA. ISI kan ons moeilikste makro -ekonomiese probleme oplos - ons moeilikste ekonomiese debatte, etiese en filosofiese kwessies, wêreldwye handel - wat alles vir ISI pynlik duidelik sal wees.
Maar daar is iets besonders wat ISI vir ons kan doen. Aantreklik en aanloklik wat alles sou verander: ISI kan ons help om sterftes te hanteer … As u geleidelik die vermoëns van AI begryp, sal u miskien al u idees oor die dood heroorweeg.
Daar was geen rede vir evolusie om ons lewensduur langer te verleng as nou nie. As ons lank genoeg lewe om geboorte te skenk en kinders groot te maak tot die punt dat hulle self kan klaarkom, is evolusie genoeg. Vanuit 'n evolusionêre oogpunt is 30+ jaar voldoende vir ontwikkeling, en daar is geen rede vir mutasies om die lewe te verleng en die waarde van natuurlike seleksie te verminder nie. William Butler Yates noem ons spesie '' 'n siel verbonde aan 'n sterwende dier '. Nie baie pret nie.
En aangesien ons almal eendag sterf, leef ons met die idee dat die dood onvermydelik is. Ons dink aan veroudering met verloop van tyd - ons gaan voort om vorentoe te beweeg en kan nie hierdie proses stop nie. Maar die gedagte aan die dood is verraderlik: daardeur vergeet ons om te lewe. Richard Feynman het geskryf:
'Daar is 'n wonderlike ding in die biologie: daar is niks in hierdie wetenskap wat kan spreek van die noodsaaklikheid van die dood nie. As ons 'n ewigdurende bewegingsmasjien wil skep, besef ons dat ons genoeg wette in die fisika gevind het wat of dit onmoontlik is, of dat die wette verkeerd is. Maar daar is niks in die biologie wat dui op die onvermydelikheid van die dood nie. Dit laat my glo dat dit nie so onvermydelik is nie, en dit is net 'n kwessie van tyd voordat bioloë die oorsaak van hierdie probleem, hierdie verskriklike universele siekte, ontdek, dit sal genees word."
Die feit is dat veroudering niks met tyd te doen het nie. Veroudering is wanneer die fisiese materiaal van die liggaam verslyt. Motoronderdele verswak ook - maar is veroudering onvermydelik? As u u motor herstel terwyl die onderdele verslyt, sal dit vir ewig hou. Die menslike liggaam is nie anders nie - net meer kompleks.
Kurzweil praat oor intelligente, Wi-Fi-gekoppelde nanobots in die bloedstroom wat talle take vir die menslike gesondheid kan verrig, insluitend die gereeld herstel of vervang van verslete selle oral in die liggaam. Die verbetering van hierdie proses (of die vind van 'n alternatief wat deur 'n slimmer ASI voorgestel word) sal die liggaam nie net gesond hou nie, dit kan ook veroudering keer. Die verskil tussen die liggaam van 'n 60-jarige en 'n 30-jarige is 'n handjievol fisiese probleme wat met die regte tegnologie reggestel kan word. ISI kan 'n motor bou wat 'n persoon kan binnegaan as hy 60 is en vertrek as hy 30 is.
Selfs 'n verswakte brein kan hernu word. Die ISI sal beslis weet hoe om dit te doen sonder om die breindata (persoonlikheid, herinneringe, ens.) Te beïnvloed. 'N 90-jarige man wat aan volledige breinafbraak ly, kan heropleiding, hernuwing en terugkeer na die begin van sy lewe ondergaan. Dit mag absurd lyk, maar die liggaam is 'n handjievol atome, en die ISI kan dit beslis maklik manipuleer, enige atoomstrukture. Dit is nie so absurd nie.
Kurzweil is ook van mening dat kunsmatige materiaal meer en meer in die liggaam kan integreer namate die tyd verbygaan. Om mee te begin, kan die organe vervang word met super-gevorderde masjienweergawes wat vir ewig sal duur en nooit sal misluk nie. Dan kan ons 'n volledige herontwerp van die liggaam doen en die rooibloedselle vervang met perfekte nanobots wat vanself beweeg, wat die behoefte aan 'n hart heeltemal uitskakel. Ons kan ook ons kognitiewe vermoëns verbeter, miljarde kere vinniger begin dink en toegang verkry tot al die inligting wat die mensdom beskikbaar het deur middel van die wolk.
Die moontlikhede om nuwe horisonne te begryp, sal werklik eindeloos wees. Mense het daarin geslaag om seks 'n nuwe doel te gee, hulle doen dit vir plesier, nie net vir voortplanting nie. Kurzweil glo dat ons dieselfde met voedsel kan doen. Nanobots kan ideale voeding direk aan die selle van die liggaam lewer, waardeur ongesonde stowwe deur die liggaam kan beweeg. Die teoretikus Nanotegnologie Robert Freitas het reeds 'n plaasvervanger vir bloedselle ontwikkel, wat, wanneer dit in die menslike liggaam geïmplementeer word, hom nie in staat stel om asem te haal vir 15 minute nie - en dit is uitgevind deur 'n persoon. Stel jou voor wanneer die ISI krag sal kry.
Kurzweil glo immers dat mense die punt sal bereik waar hulle heeltemal kunsmatig word; die tyd wanneer ons na biologiese materiale kyk en dink oor hoe primitief dit was; tyd wanneer ons sal lees oor die vroeë stadiums van die menslike geskiedenis, verstom oor hoe kieme, ongelukke, siektes of bloot ouderdom 'n persoon teen sy wil kan doodmaak. Uiteindelik sal mense hul eie biologie verslaan en ewig word - dit is die pad na die gelukkige kant van die balansbalke waarvan ons van die begin af gepraat het. En mense wat hierin glo, is ook seker dat so 'n toekoms baie, baie gou op ons wag.
U sal waarskynlik nie verbaas wees dat die idees van Kurzweil sterk kritiek gelewer het nie. Sy uniekheid in 2045 en die daaropvolgende ewige lewe vir mense word die "hemelvaart van nerds" of "intelligente skepping van mense met 'n IK van 140" genoem. Ander bevraagteken die optimistiese tydsraamwerk, die begrip van die menslike liggaam en brein, wat herinner aan Moore se wet, wat nog nie verdwyn het nie. Vir elke kenner wat in Kurzweil se idees glo, is daar drie wat dink dat hy verkeerd is.
Maar die interessantste hiervan is dat die meeste kundiges wat met hom verskil, in die geheel nie sê dat dit onmoontlik is nie. In plaas daarvan om te sê "kak, dit sal nooit gebeur nie", sê hulle iets soos "dit alles sal gebeur as ons by die ISI kom, maar dit is die probleem." Bostrom, een van die bekroonde AI -kundiges wat waarsku oor AI -gevare, erken ook:
'Daar is amper geen probleem meer wat superintelligensie nie kan oplos nie, of selfs kan help om op te los nie. Siekte, armoede, omgewingsvernietiging, allerhande lyding - al hierdie superintelligensie kan met behulp van nanotegnologie binne 'n oomblik opgelos word. Superintelligensie kan ons ook 'n onbeperkte lewensduur gee deur die verouderingsproses te stop en om te keer met behulp van nanomedisyne of die vermoë om ons na die wolk te laai. Superintelligensie kan ook geleenthede skep vir eindelose toenames in intellektuele en emosionele vermoëns; hy kan ons help om 'n wêreld te skep waarin ons in vreugde en begrip sal lewe, ons ideale sal benader en gereeld ons drome kan bewaarheid."
Dit is egter 'n aanhaling van een van Kurzweil se kritici, wat erken dat dit alles moontlik is as ons 'n veilige ASI kan skep. Kurzweil het eenvoudig gedefinieer wat kunsmatige superintelligensie moet word, indien enigsins moontlik. En as hy 'n goeie god is.
Die voor die hand liggendste kritiek op voorstanders van die gemaksone is dat hulle verkeerd verdoem kan word as hulle die toekoms van ISI beoordeel. In sy boek The Singularity bestee Kurzweil 20 bladsye uit 700 moontlike ISI -dreigemente. Die vraag is nie wanneer ons by ISI kom nie, die vraag is wat die motivering daarvan is. Kurzweil beantwoord hierdie vraag met omsigtigheid: 'ISI spruit uit baie uiteenlopende pogings en sal diep geïntegreer word in die infrastruktuur van ons beskawing. Trouens, dit sal nou in ons liggaam en brein ingebed wees. Hy sal ons waardes weerspieël, want hy sal een met ons wees.”
Maar as die antwoord is, waarom is soveel slim mense in hierdie wêreld bekommerd oor die toekoms van kunsmatige intelligensie? Waarom sê Stephen Hawking dat die ontwikkeling van ISI 'die einde van die menslike ras kan beteken'? Bill Gates sê hy "verstaan nie mense wat hulle nie pla nie" daaroor. Elon Musk vrees dat ons ''n demoon ontbied' '. Waarom beskou baie kenners ISI as die grootste bedreiging vir die mensdom?
Ons sal volgende keer hieroor praat.