Murray Shanahan - Murray Shanahan

Murray Shanahan
Született
Murray Patrick Shanahan
alma Mater Imperial College London (BSc)
University of Cambridge (PhD)
Tudományos karrier
Mezők Mesterséges intelligencia
Neurodinamikai
tudat
Intézmények Imperial College London DeepMind
Tézis A függőségek kihasználása a keresési és következtetési mechanizmusokban
Doktori tanácsadó William F. Clocksin
Weboldal www .doc .ic .ac .uk / ~ mpsha

Murray Patrick Shanahan professzora Kognitív Robotics at Imperial College London , a Department of Computing , és vezető kutatója DeepMind . Ő kutatások a mesterséges intelligencia , robotika, és a kognitív tudomány.

Oktatás

Shanahan is tanult a londoni Imperial College és befejezett doktori a Cambridge-i Egyetem 1987-ben felügyeli William F. Clocksin.

Karrier és kutatás

Az Imperial College számítástechnikai tanszékén Shanahan 1987 és 1991 között posztdoktor volt, 1995 -ig fejlett kutató. A Queen Mary & Westfield College -ban 1995 és 1998 között volt tudományos munkatárs. Shanahan csatlakozott az Elektromos Tanszékhez. Az Imperial mérnöke, majd (2005 -ben) a Számítástechnika Tanszék, ahol 2006 -ban Readerből professzorrá léptették elő. Shanahan Alex Garland 2014 -es Ex Machina című filmjének tudományos tanácsadója volt . Garland jóváírta Shanahannak, hogy kijavította a Garland kezdeti forgatókönyveiben szereplő hibát a Turing -teszt kapcsán . Shanahan 2016-tól a texasi induló Lucid.AI hatfős etikai testületében, 2017-től pedig a Cambridge Center for the Study of Existential Risk külső tanácsadó testületében . 2016-ban Shanahan és kollégái közzétettek egy bizonyítékot a "Deep Symbolic Reinforcement Learning" koncepcióról, amely egy speciális hibrid AI architektúra, amely ötvözi a GOFAI-t a neurális hálózatokkal , és amely egyfajta transzfer tanulást mutat . 2017 -ben, aggodalomra okot adó kérdésként hivatkozva "a jelenlegi technológiai bérleti őrület potenciáljára (agyelszívásra) a tudományos körökben", Shanahan közös álláspontról tárgyalt a londoni Imperial College -ban és a DeepMind -ben. Az Atlantic és a Wired UK befolyásos kutatóként jellemezte Shanahant.

Könyvek

2010 -ben Shanahan kiadta az Embodiment and the internal life: Cognition and Consciousness in the Space of Possible Minds című könyvet, amely segített inspirálni a 2014 -es Ex Machina című filmet . A könyv azt állítja, hogy a megismerés egy testesített entitás "belső próba" folyamata körül forog, amely fizikai cselekedeteinek következményeinek előrejelzésén dolgozik.

2015 -ben Shanahan közzétette a Technológiai szingularitást , amely különböző forgatókönyveken megy keresztül egy mesterséges intelligencia feltalálását követően, amely jobb változatokat készít magáról és gyorsan legyőzi az embereket. A könyv célja, hogy egyenrangú előadó legyen az emberfeletti intelligenciával kapcsolatos kérdésekben . Shanahan azon a véleményen van, hogy nem tudjuk, hogyan viselkednek a szuperintelligenciák: barátságosak vagy ellenségesek, kiszámíthatóak vagy kifürkészhetetlenek lesznek.

Shanahan a Keretprobléma megoldása (MIT Press, 1997) és a Search, Inference and Dependencies in Artificial Intelli (Ellis Horwood, 1989) társszerzője is .

Nézetek

A 2010 -es évektől Shanahan úgy jellemzi az AI -t, hogy hiányzik az emberi gyermek józan esze . Támogatja a mesterséges általános intelligencia (AGI) kutatását e probléma megoldására, és kijelenti, hogy az olyan területeken, mint az orvosi diagnosztika és az automatizált járművek, telepített AI rendszereknek rendelkezniük kell ilyen képességekkel, hogy biztonságosabbak és hatékonyabbak legyenek. Shanahan kijelenti, hogy nem kell pánikba esni egy AI -átvétel miatt, mert több koncepcionális áttörésre lesz szükség az AGI számára, és hogy „lehetetlen tudni, hogy mikor (AGI) lehet elérni”. Shanahan kijelenti: "Az AI közösség nem gondolja, hogy ez komoly aggodalomra ad okot, míg a nyilvánosság azt gondolja, hogy ez sokkal inkább probléma. A megfelelő hely valószínűleg a két véglet között van." 2014 -ben Shanahan kijelentette, hogy az elkövetkező tíz -húsz évben nem lesz AGI, de azt is kijelentette: "másfelől valószínűleg jó ötlet, ha az AI kutatói (most) elkezdenek gondolkodni azon ( egzisztenciális kockázat ) kérdésekről, amelyek Stephen Hawking és mások emelték. " Shanahan bízik abban, hogy az AGI végül megvalósul. 2015 -ben azt feltételezte, hogy az AGI 2025 és 2050 között "lehetséges, de valószínűtlen", és a 21. század második felében "egyre valószínűbbé válik, de még mindig nem biztos". Shanahan szorgalmazta, hogy az ilyen AGI -t tanítsák meg az emberi empátiára.

Hivatkozások

Külső linkek