Pozitivní vývoj umělé inteligence

Jaká rizika plynou z vývoje umělé inteligence a jak jim efektivně předcházet? Překlad Tereza Volmutová a Lukáš Bátrla

April 23, 2017


Kolem roku 1800 prošla civilizace jednou z největších změn v lidské historii - průmyslovou revolucí. Nebyla to první taková událost, agrární revoluce od základů proměnila lidské životy už o 12 000 let dříve.

Stále více expertů věří, že třetí revoluce nastane během 21. století, až stroje dosáhnou takové inteligence, která předčí tu naší. Mezi těmito experty je i Stephen Hawking nebo Stuart Russel, autoři nejprodávanější knihy o umělé inteligenci: AI: A Modern Approach (Moderní přístup k umělé inteligenci).

Rychlé pokroky ve strojovém učení naznačují, že algoritmy by jednoho dne mohly být schopny dělat většinu, nebo dokonce všechny intelektuální úkony, které nyní vykonávají lidé. To by nakonec mohlo vést k tomu, že stroje budou tyto úkoly vykonávat mnohem lépe.

Pokroky by mohly vést k extrémně pozitivnímu vývoji, stroje by například mohly přijít na řešení nyní těžko řešitelných globálních problémů, ale také představují vážná rizika. Lidská inteligence, vyšší než u ostatních druhů, je v podstatě jediný důvod, proč je člověk dominantním druhem na planetě. Pokud stroje předčí lidskou inteligenci, potom stejně tak jako osud například goril momentálně závisí na lidských činech, osud lidstva by mohl začít záviset na činech strojů.

Mohla by to být nejdůležitější událost tohoto století, která buď předurčí nastupující bezprecedentní éru bohatství a pokroku, nebo bude znamenat naprostou katastrofu. Momentálně je to oblast velmi zanedbávaná - zatímco do stále mocnější umělé inteligence jsou investovány miliardy dolarů, méně než 100 lidí se na světě zabývá otázkou, jak učinit umělou inteligenci bezpečnou.

Tento problém je dost neobvyklý a i nám trvalo dlouhou dobu do něj proniknout a pochopit ho. Rozhodně to celé zní zvláštně. Když jsme na tyto myšlenky v roce 2009 poprvé narazili, byli jsme skeptičtí. S každým dalším přečteným článkem jsme ale byli zaujatější. Začali jsme věřit, že tato technická výzva může být pravděpodobně také překonána, pokud jí lidstvo bude věnovat dostatečnou pozornost a úsilí.

Vložit úsilí do nově objevených a pojmenovaných problémů znamená riskovat, že zabřednete do řešení něčeho, co se možná ani nestane, nebo bude vyřešeno jednoduše, ale také to znamená možnost být průkopníky v oblasti, kterou ostatní ještě dostatečně nedocenili, jako mnoho lidí v historii, kteří nakonec měli ten největší dopad na další vývoj lidstva. V následujících odstavcích představíme argumenty pro to se touto oblastí zabývat a podíváme se na nejlepší způsoby, jak přispět.

Shrnutí nejlepších způsobů, jak s tímto problémem pracovat


Vést technický výzkum - jak sladit činy a cíle inteligentního stroje s lidskými záměry.

Vést strategický výzkum - jak mohou vlády zahrnout problém inteligentních strojů do politiky jako otázku bezpečnosti společnosti.

Nepřímo přispět k řešení například propagováním důležitosti problému a zvyšováním veřejného povědomí o rizicích spojených s umělou inteligencí.


Proč na tomto problému pracovat?


Argumenty pro řešení jsou komplexní a následující odstavce jsou pouze stručné shrnutí. Pokud preferujete video, podívejte se na tento TED talk (u videa jsou k dispozici české titulky):


Ti, co se již vyznají v počítačových vědách možná upřednostní shlédnutí této přednášky Stuarta Russella, profesora Kalifornské univerzity v Berkeley, která jde hlouběji do potenciálních výzkumných programů.

Pokud chcete jít ještě dál a máte-li čas, doporučujeme přečíst si knihu Superinteligence: Až budou stroje chytřejší než lidé od Oxfordského profesora Nicka Bostroma, která nedávno vyšla i v češtině. Příspěvek The Artificial Intelligence Revolution od Tima Urbana na serveru Wait But Why je kratší a rozhodně stojí za přečtení (a také se podívejte na tuto odpověď).


Nedávný pokrok ve strojovém učení naznačuje, že dopad umělé inteligence může být závažný a nečekaný


Když začal Tim Urban zkoumat téma svého budoucího článku, čekal, že ho dokončí během pár dní. Místo toho strávil týdny čtením všeho, co mohl, protože, jak sám říká: “Rychle mě napadlo, že to, co se děje ve světě UI není jen důležité téma, ale zdaleka nejdůležitější téma naší budoucnosti.”

V říjnu 2015 systém UI nazvaný AlphaGo šokoval celý svět, když poprvé v historii porazil profesionálního hráče ve starodávné čínské stolní hře Go. Pouhých pět měsíců poté přišel další šok: AlphaGo zvítězil nad jedním z nejlepších profesionálních hráčů Go na světě, výhrou 4 zápasů z 5. O sedm měsíců později se tentýž program zlepšil ještě hlouběji a rozdrtil světové top hráče 60 výhrami v řadě. V průběhu jednoho roku pokročila UI od toho, kdy byla příliš slabá na poražení nejhorších profesionálních hračů, k tomu, že ji ani ti nejlepší hráči na světě nedokáží porazit.

Šokující to bylo i proto, že hrát Go je pro stroj (umělou inteligenci) považováno za mnohem těžší než hrát například šachy. Počet možných tahů je v Go obrovský, takže není možné přijít na nejlepší krok pomocí “hrubé síly”. Hra spíše vyžaduje strategickou intuici. Někteří odborníci si mysleli, že bude trvat nejméně desetiletí podmanit si Go.

Od té doby AlphaGo pomohlo zjistit, že určité způsoby hraní Go, které byly po tisíce let označovány za pošetilé, byly ve skutečnosti mimořádně kvalitní. Ke Jie, nejlépe hodnocený hráč Go na světě, byl ohromen: “Poté, co lidstvo strávilo tisíce let vylepšováním našich taktik, nám počítače říkají, že se lidé velmi mýlí. Dokonce bych se nebál tvrdit, že se žádný člověk nedotkl okraje pravdy hry Go.”

Dosavadní pokrok popsaný výše byl možný díky vývoji techniky UI zvané “deep learning”. V minulosti jsme museli dávat počítačům detailní instrukce pro každou úlohu. Dnes zde máme programy, které učí sami sebe, jak dosáhnout cíle - jeden program byl například schopen naučit se hrát hry Atari pouze na základě získané zpětné vazby z dosaženého výsledku. Bylo toho docíleno vylepšenými algoritmy, rychlejšími procesory, rozsáhlejšími datasety a obrovskými investicemi firem, jako je Google. To vedlo k úžasnému pokroku mnohem rychleji, než se čekalo.

Tyto příklady jsou ale týkají pořád jen her. Je obecná inteligence strojů stále daleko? Možná ano, možná ne. Je opravdu těžké předpovídat budoucnost technologií a mnoho takových pokusů bylo v minulosti velmi nepřesných. Nicméně, nejlepší dostupné průzkumy mezi odborníky přiřazují významnou pravděpodobnost vývoji silné UI již během našeho života.

V jednom průzkumu 100 nejcitovanějších žijících výzkumníků z oblasti počítačových věd, z nichž 29 na daný průzkum odpovědělo, bylo zjištěno, že více než polovina se domnívala, že existuje více než 50% šance na vývoj “umělé inteligence s vysokou úrovní” - takové, která dokáže provádět většinu lidských profesí alespoň stejně dobře jako běžný člověk - před rokem 2050 a více než 10% šance, že k tomu dojde už do roku 2024 (viz graf níže).



Umělá superinteligence může mít obrovský pozitivní i negativní dopad


Pokud mají experti pravdu, systém umělé inteligence, který předčí lidské možnosti, může mít opravdu velký dopad, jak pozitivní tak negativní. Pokud umělá inteligence zaznamená pokrok v oblastech jako matematický nebo vědecký výzkum, mohl by zrychlit i pokrok v léčení nemocí nebo sestrojení robotů, kteří slouží lidským potřebám.

Na druhou stranu má mnoho lidí strach z narušujících sociálních efektů, které by inteligentní stroje mohly mít a částečně také z toho, že budou schopny převzít práci, kterou předtím dělali méně schopní pracovníci. Pokud ekonomika není schopná pro tyto lidi vytvořit dostatečně rychle nová pracovní místa, výrazně se zvýší nezaměstnanost a mzdy se sníží. Takové výsledky může odvrátit správná vládní politika, která ale vyžaduje rozsáhlé plánování.


Inteligentní stroje ovšem mohou mít i další dopady


Profesor Stuart Russell, autor nejprodávanější knihy o umělé inteligenci, napsal: "Úspěch přináší obrovská rizika... kombinace odchýlení se od cíle a systému, který je stále schopnější sám dělat rozhodnutí, může vést k problému - možná dokonce k takovému, který může ukončit lidskou civilizaci, pokud stroje budou schopnější než lidé."


Zde je velmi zjednodušený příklad:


Vlastník farmaceutické firmy použije algoritmus strojového učení, aby rychle vytvořil a ohodnotil nové organické sloučeniny. S tím, jak se algoritmus zlepšuje, začíná být velmi nepraktické ponechávat do práce algoritmu zapojené i lidi, lidské nápady jsou navíc většinou stejně horší. Výsledkem může být stále větší autonomie systému, který sám navrhuje a provádí experimenty nových sloučenin.

Nakonec je algoritmům zadán cíl "snížit počet případů onemocnění rakovinou" a navrhne sloučeninu, u které počáteční testy ukáží vysokou efektivitu při snaze předcházet rakovině. O několik let později je vytvořen lék, který přejde do běžného užívání jako prevence rakoviny.

Až jednoho dne, po uplynutí několika let, molekulární hodiny zakotvené ve sloučenině budou vytvářet silný toxin, který najednou zabije každého, kdo má v těle byť jen stopu rakoviny.

Ukáže se totiž, že algoritmus zjistil, že sloučenina nejefektivnější k vymýcení rakoviny je taková, která zabije člověka ještě předtím, než je dost starý, aby rakovinou onemocněl. Systém také předpověděl, že lék dosáhne cíle pouze pokud je široce používán, a tak nakombinoval toxin s lékem, čímž se látka rozšířila mezi širokou veřejnost.


Obavy samozřejmě nejsou z tohoto konkrétního případu, ale spíš z podobných nezamýšlených následků. Tento problém se objevuje skoro u každé výzkumné otázky, kterou by vědci případně chtěli superinteligentním počítačům zadat. A všechno, co je potřeba k potenciální katastrofě, je jeden superinteligentní stroj, který dostane špatné instrukce.

Čím chytřejší je systém, tím těžší je pro člověka na něj dohlížet. A stejně jako v našem scénáři, inteligentní stroj bude často chtít udržet člověka mimo, když zamlčování akcí strojem sníží riziko, že se člověk bude do zadaných úkolů snažit vměšovat.

Možná vás napadne, "A proč ho tedy prostě nevypneme?", ale inteligentní systém se bude snažit dělat naprosto přesně co po něm chceme, až dojde k tomu, že zajistí, že ho nebudeme schopni vypnout.

Inteligentní stroj může i "vědět", že to, co dělá, není úplně přesně to, co člověk zamýšlel, ale to zkrátka není relevantní. Stejně tak tepelně naváděné rakety, které následují horké objekty, jsou navrženy tak, aby udělaly přesně a doslova to, na co byly naprogramovány. Bohužel, inteligence nutně neznamená, že bude stroj sdílet naše hodnoty. Výsledkem může být stroj nekompromisně zaujatý dosažením jediného cíle, ať už je jakkoliv nesmyslný.

Řešením je přijít na to, jak zajistit, aby instrukce, které zadáváme stroji, opravdu vystihly co chceme udělat, bez nezamýšlených vedlejších efektů. Říkáme tomuto řešení "problém řízení" nebo "problém uspořádání hodnot".

Jen těžko si lze představit důležitější výzkumnou otázku. Řešení problému řízení může znamenat rozdíl mezi enormním bohatstvím, zdravím a štěstím, a destrukcí podmínek, které umožňují člověku prosperovat.


Problému se věnuje málo lidí


V sázce je, jak vidíme, hodně, přesto úsilí věnované předcházení takovému hazardování je malé. Světové výdaje na výzkum a zajištění, že inteligence je u strojů vyvíjená bezpečně, budou v roce 2017 pouze 9 milionů dolarů. Pro srovnání, 100krát více je investováno do rychlejšího vylepšování umělé inteligence a 26 000krát více se utratí na biomedicínský výzkum. Výzkum bezpečnosti umělé inteligence na druhou stranu přesto roste celkem rychle - v roce 2015 byly celkové výdaje na něj pouze 3 miliony dolarů.

Technický výzkum zahrnuje práci na výzkumu v matematice a umělé inteligenci, což má vyřešit problém řízení. Strategický výzkum je potom zaměřen na širší otázku o tom, jak bezpečně vyvíjet umělou inteligenci, například jak by měla být regulována a podobně.

Vzhledem k tomu, že se této otázce zatím věnuje tak málo výzkumů, můžeme brzy očekávat relativně rychlý pokrok, nejsnadnější a nejužitečnější objevy na své objevení teprve čekají. Problém se také stal urgentnější během několika posledních let kvůli zvyšujícím se investicím a pokrokům ve vývoji inteligentních strojů.


Jasné cesty k pokroku


Investice do technického výzkumu na "problém řízení" už ovšem vykazují významné výsledky. Přestože technických problémů zatím mnoho vyřešeno nebylo, máme dnes už mnohem jasnější představu o tom, jak se inteligentní systémy mohou odchýlit od našeho původního záměru, což je první krok k řešení celého problému.

V posledních letech byl zaznamenán pokrok také v oblasti "strategických" problémů týkajících se umělé inteligence. Například byl proveden výzkum, jak by vlády měly reagovat na vývoj umělé inteligence, obsahující témata jako závody ve zbrojení, možné důsledky otevřeného sdílení výzkumů a kritéria, na základě kterých by měla být tvořena politika umělé inteligence. Stále je na toto téma ale napsáno jen velmi málo, takže každá vědecká práce může mít potenciálně obrovský přínos do literatury, která se bezpečností umělé inteligence zabývá.

Existují argumenty, že smysluplný výzkum nyní ani není možný. I kdyby tomu tak bylo, stále je možné vytvořit komunitu lidí, kteří jsou oddaní snižovat rizika budoucnosti, kdy pokrok v této oblasti bude jednodušší. Práce lidí v jiném než technickém oboru zatím významně pomohla rozšířit financování oboru a také zvýšit zájem o něj, čímž přispěla rostoucímu úsilí se s tímto problémem vyrovnat.




Přeloženo z https://80000hours.org/problem-profiles/positively-shaping-artificial-intelligence/. Přesné zdroje a citace naleznete v originální anglické verzi. V původním článku poté následuje seznam možných argumentů proti urgentnosti tohoto problému a také seznam konkrétních kariérních a filantropických doporučení, plánujeme brzy přeložit i tyto části. Následující seznam doporučovaných zdrojů je inspirovaný tímto článkem.


Tímto tématem se náš spolek dlouhodobě zabývá. V případě dotazů nebo návrhů na spolupráci nás kontaktujte.


Některé doporučené zdroje (v angličtině):

Nick Bostrom – Superintelligence: Paths, Dangers, Strategies

James Barrat – Our Final Invention

Ray Kurzweil – The Singularity is Near


Významné články a studie:

J. Nils Nilsson – The Quest for Artificial Intelligence: A History of Ideas and Achievements
Steven Pinker – How the Mind Works
Vernor Vinge – The Coming Technological Singularity: How to Survive in the Post-Human Era
Ernest Davis – Ethical Guidelines for A Superintelligence
Nick Bostrom – How Long Before Superintelligence?
Vincent C. Müller and Nick Bostrom – Future Progress in Artificial Intelligence: A Survey of Expert Opinion
Moshe Y. Vardi – Artificial Intelligence: Past and Future
Russ Roberts, EconTalk – Bostrom Interview and Bostrom Follow-Up
Stuart Armstrong and Kaj Sotala, MIRI – How We’re Predicting AI—or Failing To
Susan Schneider – Alien Minds
Stuart Russell and Peter Norvig – Artificial Intelligence: A Modern Approach
Theodore Modis – The Singularity Myth
Gary Marcus – Hyping Artificial Intelligence, Yet Again
Steven Pinker – Could a Computer Ever Be Conscious?
Carl Shulman – Omohundro’s “Basic AI Drives” and Catastrophic Risks
World Economic Forum – Global Risks 2015
John R. Searle – What Your Computer Can’t Know
Jaron Lanier – One Half a Manifesto
Bill Joy – Why the Future Doesn’t Need Us
Kevin Kelly – Thinkism
Paul Allen – The Singularity Isn’t Near (and Kurzweil’s response)
Stephen Hawking – Transcending Complacency on Superintelligent Machines
Kurt Andersen – Enthusiasts and Skeptics Debate Artificial Intelligence
Terms of Ray Kurzweil and Mitch Kapor’s bet about the AI timeline
Ben Goertzel – Ten Years To The Singularity If We Really Really Try
Arthur C. Clarke – Sir Arthur C. Clarke’s Predictions
Hubert L. Dreyfus – What Computers Still Can’t Do: A Critique of Artificial Reason
Stuart Armstrong – Smarter Than Us: The Rise of Machine Intelligence
Ted Greenwald – X Prize Founder Peter Diamandis Has His Eyes on the Future
Kaj Sotala and Roman V. Yampolskiy – Responses to Catastrophic AGI Risk: A Survey
Jeremy Howard TED Talk – The wonderful and terrifying implications of computers that can learn



blog comments powered by Disqus