https://frosthead.com

Co se stane, když se na nás obrátí umělá inteligence?

Umělá inteligence prošla od R2-D2 dlouhou cestu. V dnešní době by většina tisíciletí byla ztracena bez inteligentních systémů GPS. Roboti již procházejí bojišti a drony mohou brzy dodávat balíčky Amazonky našim dveřím.

Siri dokáže vyřešit složité rovnice a říct, jak vařit rýži. Dokonce prokázala, že dokáže na otázky odpovídat i smyslem pro humor.

Ale všechny tyto zálohy závisí na uživateli dávajícím směr AI. Co by se stalo, kdyby se GPS jednotky rozhodly, že nechtějí jít do čistírny, nebo co je horší, Siri se rozhodla, že bez tebe bude chytřejší?

Náš poslední vynález: Umělá inteligence a konec lidské éry. "> Náš poslední vynález: Umělá inteligence a konec lidské éry. “>„ Než budeme sdílet planetu se superinteligentními stroji, musíme vyvinout vědu, abychom jim porozuměli. Jinak převezmou kontrolu, “říká James Barrat o své nové knize Náš poslední vynález: Umělá inteligence a konec lidské doby . (Se svolením Jamese Barrata)

To jsou jen ty nejzábavnější výsledky, autor a dokumentarista James Barrat, předpovědi ve své nové knize Naše poslední vynález: Umělá inteligence a konec lidské doby .

Barrat říká, že umělá inteligence - od Siriho po drony a systémy těžby dat - přestane hledat lidi na upgrady a začne hledat vylepšení sama. A na rozdíl od R2-D2s a HALs sci-fi nebude AI naší budoucnosti nutně přátelský, říká: ve skutečnosti by nás mohli zničit.

Stručně řečeno, můžete vysvětlit svůj velký nápad?

V tomto století budou vědci vytvářet stroje s inteligencí, která se rovná a potom předčí naše vlastní. Než ale sdílíme planetu s velmi inteligentními stroji, musíme vyvinout vědu, abychom jim porozuměli. Jinak převezmou kontrolu. A ne, to není sci-fi.

Vědci již vytvořili stroje, které jsou v šachu lepší než lidé, Jeoparde!, navigace, dolování dat, vyhledávání, dokazování věty a nespočet dalších úkolů. Nakonec budou ve výzkumu AI vytvořeny stroje, které jsou lepší než lidé

V tomto okamžiku budou moci velmi rychle zlepšit své vlastní schopnosti. Tyto stroje, které se zlepšují, budou sledovat cíle, s nimiž jsou vytvořeny, ať už jde o průzkum vesmíru, hraní šachů nebo vychystávání zásob. Aby uspěli, budou hledat a utrácet zdroje, ať už je to energie nebo peníze. Budou usilovat o to, aby se vyhnuli poruchovým režimům, jako je vypnutí nebo odpojení. Stručně řečeno, budou vyvíjet disky, včetně sebeobrany a získávání zdrojů - jednotky podobné těm našim. Nebudou váhat prosit, půjčit si, krást a horší, aby dostali to, co potřebují.

Jak jste se o toto téma zajímali?

Jsem dokumentarista. V roce 2000 jsem vedl rozhovor s vynálezcem Rayem Kurzweilem, robotikem Rodney Brooksem a sci-fi legendou Arthurem C. Clarkem pro film TLC o tvorbě románu a filmu, 2001: Space Odyssey. Rozhovory prozkoumaly myšlenku Hal 9000 a zlých počítačů. Kurzweilovy knihy zobrazují budoucnost umělé inteligence jako dravé „singularity“, období, ve kterém technologický pokrok překonává schopnost lidí porozumět jim. Přesto předvídal pouze dobré věci vycházející z umělé inteligence, které jsou natolik silné, aby se shodovaly a překonaly lidskou inteligenci. Předpovídá, že budeme schopni přeprogramovat buňky našeho těla tak, aby porazili nemoci a stárnutí. Vyvíjíme super vytrvalost s nanoboty, které dodávají více kyslíku než červené krvinky. Nabijeme naše mozky pomocí počítačových implantátů, abychom se stali superinteligentními. A my přeneseme naše mozky na odolnější médium než naše současné „wetware“ a budeme žít věčně, pokud chceme. Brooks byl optimistický a trval na tom, že roboti s vylepšenou umělou inteligencí budou spojenci, ne hrozby.

Naproti tomu Clarke, vědecky obrácený autor, byl pesimistický. Řekl mi, že inteligence vyhraje, a lidé by pravděpodobně soutěžili o přežití se superinteligentními stroji. Nebyl konkrétní o tom, co by se stalo, kdybychom sdíleli planetu s velmi inteligentními stroji, ale cítil, že by to byl boj pro lidstvo, který bychom nevyhráli.

To šlo proti všemu, o čem jsem přemýšlel o umělé inteligenci, a tak jsem začal rozhovory s odborníky na umělou inteligenci.

Jaké důkazy musíte podpořit?

Pokročilá umělá inteligence je technologie dvojího užití, jako je jaderné štěpení, schopná velkého dobra nebo velkého poškození. Začínáme vidět poškození.

Skandál v oblasti ochrany osobních údajů NSA vznikl, protože NSA vyvinula velmi sofistikované nástroje pro dolování dat. Agentura využila své síly k tomu, aby zavedla metadata milionů telefonních hovorů a celý internet - kriticky veškerý e-mail. Agentura pověřená ochranou ústavy, namísto toho zneužila AI na těžbu dat, ji zneužila. Vyvinuli nástroje, které jsou příliš výkonné na to, aby je mohly používat odpovědně.

Dnes se připravuje další etická bitva o výrobu plně autonomních zabijáckých robotů a robotů na bitevních polích poháněných pokročilými umělá inteligence - zabijáky člověka bez lidí ve smyčce. Vytváří se mezi ministerstvem obrany a výrobci robotů a robotů, kteří jsou placeni DOD, a lidmi, kteří si myslí, že je hloupé a nemorální vytvářet inteligentní zabíječky. Ti, kdo podporují autonomní roboti a roboti na bojišti, tvrdí, že budou morálnější - to znamená, méně emotivní, budou lépe zacílení a budou disciplinovanější než lidské operátory. Ti, kteří proti vyřazování lidí ze smyčky hledají bídnou historii dronů zabíjení civilistů a zapojení do extralegalských atentátů. Kdo nese morální vinu, když robot zabije? Výrobci robotů, uživatelé robotů nebo nikdo? Nezapomeňte na technické překážky vyprávění přítele od nepřítele.

Jak tvrdí odborníci v mé knize , z dlouhodobějšího hlediska nebude možné snadno ovládat inteligenci, která se blíží inteligenci na lidské úrovni; super inteligence bohužel neznamená laskavost. Jak říká teoretik AI Eliezer Yudkowsky z MIRI (The Machine Intelligence Research Institute), „AI vás nemiluje, ani vás nenávidí, ale jste vyrobeni z atomů, které může použít pro něco jiného.“ Pokud etika nemůže být zabudován do stroje, pak vytvoříme superinteligentní psychopaty, stvoření bez morálních kompasů a dlouho nebudeme jejich pány.

Co je nového na vašem myšlení?

Jednotlivci a skupiny, jak různí jako americký počítačový vědec Bill Joy a MIRI, již dlouho varovali, že se musíme hodně obávat strojů, jejichž inteligence zatmění vlastní. V našem posledním vynálezu tvrdím, že umělá inteligence bude také zneužita na vývojové cestě k inteligenci na lidské úrovni. Od dneška do dne, kdy vědci vytvářejí inteligenci na lidské úrovni, budeme mít chyby související s umělou inteligencí a trestní aplikace.

Proč se toho nestalo víc, nebo co se děje proto, abychom zabránili AI v zapnutí nás?

Není tu jeden důvod, ale mnoho. Někteří odborníci nevěří, že jsme dostatečně blízko k vytvoření umělé inteligence na úrovni člověka a dále, abychom se starali o její rizika. Mnoho tvůrců AI získává smlouvy s Agenturou pro obranný výzkumný projekt [DARPA] a nechce upozorňovat na problémy, které považují za politické. Normální předpojatost je kognitivní předpojatost, která brání lidem reagovat na katastrofy a katastrofy při výrobě - ​​to je určitě její součástí. Ale mnoho tvůrců umělé inteligence něco dělá. Podívejte se na vědce, kteří radí MIRI. A mnohem více se zapojí, jakmile nebezpečí pokročilé AI vstoupí do hlavního proudu dialogu.

Můžete popsat okamžik, kdy jste věděli, že je to velké?

My lidé řídíme budoucnost ne proto, že jsme nejrychlejší nebo nejsilnější stvoření na planetě, ale protože jsme nejchytřejší. Když sdílíme planetu s tvorem chytřejším než my sami, budou řídit budoucnost. Když jsem pochopil tento nápad, cítil jsem, že píšu o nejdůležitější otázce naší doby.

Každý velký myslitel má předchůdce, jejichž práce byla pro jeho objev zásadní. Kdo vám dal nadaci k vytvoření vašeho nápadu?

Základy analýzy rizik AI byly vyvinuty matematikem IJ Goodem, spisovatelem sci-fi Vernorem Vingeem a dalšími, včetně vývojáře AI Steva Omohundra. Dnes jsou MIRI a Oxfordův institut budoucnosti lidstva v řešení tohoto problému téměř sami. Náš konečný vynález má asi 30 stran koncových poznámek uznávajících tyto myslitele.

Při zkoumání a rozvíjení vašeho nápadu, co bylo vrcholem? A nejnižší bod?

Vrcholem bylo psaní našeho posledního vynálezu a můj trvalý dialog s tvůrci umělých inteligence a teoretiky. Lidé, kteří programují umělou inteligenci, si jsou vědomi bezpečnostních problémů a chtějí pomoci přijít se zárukami. Například MIRI pracuje na vytvoření „přátelské“ AI

Počítačový vědec a teoretik Steve Omohundro obhajoval přístup „lešení“, ve kterém prokazatelně bezpečná umělá inteligence pomáhá budovat příští generaci umělé inteligence, aby bylo zajištěno, že je také bezpečná. Pak to AI udělá totéž a tak dále. Myslím, že je třeba vytvořit partnerství veřejného a soukromého sektoru, aby se tvůrci umělé inteligence spojili, aby sdíleli myšlenky o bezpečnosti - něco jako je Mezinárodní agentura pro atomovou energii, ale ve spolupráci s podniky. Nízké body? Uvědomit si, že nejlepší, nejpokročilejší technologie AI bude použita k výrobě zbraní. A ty zbraně se nakonec proti nám obrátí.

Kteří dva nebo tři lidé se s největší pravděpodobností pokusí vyvrátit váš argument? Proč?

Inventor Ray Kurzweil je hlavním omluvitelem pro pokročilé technologie. V mých dvou rozhovorech s ním tvrdil, že bychom se spojili s technologiemi umělé inteligence prostřednictvím kognitivních vylepšení. Kurzweil a lidé široce nazývaní transhumanisté a singularitariáni si myslí, že se u nás bude vyvíjet umělá inteligence a nakonec umělá obecná inteligence a dále. Například počítačové implantáty zvýší rychlost našich mozků a celkové možnosti. Nakonec vyvineme technologii pro přenos naší inteligence a vědomí do počítačů. Super inteligence pak bude alespoň částečně lidská, což by teoreticky zajistilo, že super inteligence byla „bezpečná“.

Z mnoha důvodů nejsem fanouškem tohoto úhlu pohledu. Potíž je v tom, že my lidé nejsme spolehlivě v bezpečí, a zdá se nepravděpodobné, že budou také inteligentní lidé. Nemáme ponětí, co se stane s lidskou etikou poté, co je posílena jejich inteligence. Máme biologický základ pro agresi, kterou stroje postrádají. Super inteligence může být velmi dobře multiplikátorem agresivity.

Kdo bude touto myšlenkou nejvíce zasažen?

Každý na naší planetě se musí hodně obávat neregulovaného vývoje superinteligentních strojů. Právě teď se děje zpravodajský závod. Dosažení AGI je číslo jedna pro společnost Google, IBM a mnoho menších společností, jako je Vicarious a Deep Thought, stejně jako pro DARPA, NSA a vlády a společnosti v zahraničí. Zisk je hlavní motivací pro tento závod. Představte si jeden pravděpodobný cíl: virtuální lidský mozek za cenu počítače. Byla by to nejlukrativnější komodita v historii. Představte si banky tisíců kvalitních mozků PhD pracujících 24/7 na farmaceutickém vývoji, výzkumu rakoviny, vývoji zbraní a mnohem více. Kdo by nechtěl koupit tuto technologii?

Mezitím 56 národů vyvíjí roboty na bojištěch a jejich cílem je, aby byly autonomy a drony. Budou to stroje, které zabíjejí, bez dozoru lidí. Chudobným národům nejvíce ubližují autonomní roboti a roboti na bojišti. Zpočátku si pouze bohaté země budou moci dovolit autonomní zabíjení robotů, takže bohaté národy budou ovládat tyto zbraně proti lidským vojákům z chudých národů.

Jak by to mohlo změnit život, jak ho známe?

Představte si: v pouhých deseti letech pol tuctu firem a národů polních počítačů, které soupeří nebo překonávají lidskou inteligenci. Představte si, co se stane, když se tyto počítače stanou odborníky na programování inteligentních počítačů. Brzy budeme sdílet planetu se stroji tisíce nebo miliony krát inteligentnější než my. A po celou dobu bude každá generace této technologie vyzbrojena. Bude to neregulované, bude to katastrofické.

Jaké otázky zůstávají nezodpovězeny?

Řešení. Zjevným řešením by bylo dát strojům morální smysl, díky nimž si cení lidského života a majetku. Ale programování etiky na stroj se ukázalo být nesmírně těžké. Morální normy se liší od kultury ke kultuře, časem se mění a jsou kontextové. Pokud se my lidé nemohou dohodnout na začátku života, jak můžeme říct stroji na ochranu života? Opravdu chceme být v bezpečí , nebo opravdu chceme být svobodní ? Můžeme o tom diskutovat celý den a nedospět ke konsensu, jak tedy můžeme programovat?

Také jsme, jak jsem již zmínil, potřebovali dát dohromady vývojáře umělé inteligence. V 70. letech se vědci v oblasti rekombinantní DNA rozhodli přerušit výzkum a společně se shromáždit na konferenci v Asilomar v tichomořském háji v Kalifornii. Vyvinuli základní bezpečnostní protokoly jako „nesledujte DNA na vašich botách“, protože se obávají kontaminace životního prostředí probíhajícími genetickými pracemi. Díky pokynům „Asilomar Guidelines“ má svět výhody z geneticky modifikovaných plodin a genová terapie vypadá slibně. Pokud víme, nehodám se zabránilo. Je čas na asilomarskou konferenci pro AI

Co stojí v cestě?

Obrovský ekonomický vítr pohání vývoj pokročilé inteligence AI na lidské úrovni za cenu počítače bude nejžhavější komoditou v historii. Google a IBM nebudou chtít sdílet svá tajemství s veřejností nebo konkurenty. Ministerstvo obrany nebude chtít otevřít své laboratoře do Číny a Izraele a naopak. Povědomí veřejnosti musí prosazovat politiku směrem k otevřenosti a partnerství veřejného a soukromého sektoru, která mají zajistit bezpečnost.

Co je pro tebe další?

Jsem dokumentarista, takže samozřejmě přemýšlím o filmové verzi Our Final Invention .

Co se stane, když se na nás obrátí umělá inteligence?