Eliezer Yudkowsky

Yudkowsky húsruhája, 2006 öntudat kvantum számítógépbe).
Óvatosan, helyesen
Kevésbé rossz
Ikon lesswrong.svg
A szingularitás blues
Mielőtt Bruce Schneier elaludna, átkutatja számítógépét Eliezer Yudkowsky feltöltött példányai után.

Eliezer Yudkowsky (szül. 1979) egy AI kutató, blogger és az exponense emberi racionalitás (pontosabban az övé Bayes -alapú változata). Yudkowsky alapította és dolgozik a Gépi Intelligencia Kutatóintézetben (korábban a Szingularitás Mesterséges Intelligencia Intézetében), egy nonprofit szervezetben, amely foglalkozik a szingularitás .


Yudkowsky megalapította a blogközösséget is Kevésbé rossz mint a testvéroldal és az Overcoming Bias ága, ahol bloggerkarrierjét kezdte GMU közgazdász Robin Hanson. Mivel idealista társ, aki azt akarja, hogy mindenki örökké éljen, túlzottan érdekli is krionika , és (valószínűleg) sérülékeny. Saját leírásként autodidakta , nincs hivatalos képzettsége azokban a tantárgyakban, amelyekről ír.

Tartalom

AI „kutatás”

Találja meg, amiben a legjobban áll; ha ez a legjobb dolog a mesterséges intelligencia új matematikáinak feltalálása, akkor jöjjön a Singularity Institute munkatársa. Ha a befektetési banki ügylet a legjobban, akkor dolgozzon a Wall Street-nél, és utaljon át annyi pénzt, amennyit csak tud, és megengedi a Szingularitás Intézetnek, ahol ezt mások is felhasználják.
—Eliezer Yudkowsky arról, hogyan lehet megmenteni az emberi fajt.

Yudkowsky úgy véli, azonosított egy „nagy problémát az AI kutatásában”, amelyet korábban senki más nem vett észre. A probléma az, hogy nincs ok azt feltételezni, hogy egy mesterséges intelligencia átitatná az embereket, vagy ami egyáltalán érdekel minket, tekintve, hogy nem lesz millió éve szavanna emberszabású majom vagy milliárd éve evolúció sminkjében felépíteni bármilyen erkölcs vagy idegenkedés a megöléstől. Úgy véli továbbá, hogy az AI közeleg. Mint ilyen, annak kidolgozása, hogyan lehet létrehozni egy barátságos mesterséges intelligenciát (FAI) - amely nem fog megölni minket, akaratlanul vagy más módon - az a Nagy Probléma, amelyet megoldására magának vett.


A probléma forgatókönyve 'AI foom' néven ismert, ami röviden a 'rekurzívan önmagát fejlesztő mesterséges intelligencia szingularitást eredményezi'. Azon ötleteken alapul, amelyek:

  • A mesterséges intelligencia eddigi glaciális fejlődése ellenére az AI-alapú szingularitás hamarosan bekövetkezik.
  • Az AI-k fejleszteni szeretnék magukat (és mi is szeretnénk őket).
  • Az emberi szintű vagy jobb mesterséges intelligenciákat nem lehet bebörtönözni, és nem lehet fenyegetni a csatlakozók kihúzásával, mert képesek lesznek kibeszélni a helyzetet. Érdekes, hogy Yudkowsky azt állítja, hogy ezt az ötletet a szuperszigens AI szerepének szerepjátékával tesztelte, a börtönőrt pedig egy kisebb halandó játszotta. Azonban - az olvasó itt megjegyezheti a minta kezdetét - az átiratokat soha nem tették közzé.
  • Az AI-k egy bizonyos ponton keresztül gyakorlatilag korlátlan irányítást szerezhetnek a fizikai világ felett is nanotechnológia .

Barátja, fickó transzhumanista , az Oxfordi Egyetem Humán Jövő Intézetének igazgatója, filozófus és egzisztenciális kockázat teoretikus, Nick Bostrom a fenti ötletekről könyvnyi terjedelmet írt 2014-es könyvébenFelügyelet: utak, veszélyek, stratégiák. Bostrom központi tézise úgy tűnik, hogy 'nem tudja bizonyítani, hogy ez nem történik meg, ezért aggódnia kell érte'. Bostrom elismeri Yudkowsky-t az elismerések részben, és a könyvben idézi tőle.

Amint az a közötti párbeszédből kitűnik Luke Muehlhauser és Pei Wang, Yudkowsky (és így LessWrong) felfogása az általános mesterséges intelligenciáról (AGI) élesen eltér a mainstreamtől tudományos és gyakorlati kutatási megértése. Yudkowsky úgy véli, hogy az AGI valamilyen döntési elméletre épül (bár a döntési elméletek összes példája számításilag megoldhatatlan) és / vagy a Bayes logika (amelyet valódi AI-ben kipróbáltak, de nem méretez).



Mivel ezek mindketten teljesen elvontak matematikai funkciók, nincs oka annak, hogy egy rajtuk alapuló AGI megossza az emberi értékeket (nem azért, hogy rájuk alapozhasson egy AGI-t). Ezzel az érveléssel Yudkowsky szükségét látja egyfajta erkölcsi modulnak, amely valahogyan mentes a változásokkal szemben, annak ellenére, hogy a „foom” szcenárió, akitől annyira tart, AGI-ken alapul, amelyek képesekírják át a saját kódjukat. (Bostrom könyvében rámutat, hogy számos olyan helyzet van, amikor egy mesterséges intelligencia ösztönzést jelenthet saját végső céljainak megváltoztatására.) Így Yudkowsky szükségesnek látja a „megoldást”. etika valamilyen formában, ami lehet számítógépes - bár az etika továbbra is nyitott probléma filozófia több ezer év után. Azonban, Tányér , Arisztotelész és Oldal éppen nem voltak olyan okosak mint Yudkowsky hiszi magát .


Egyébként a tényleges mesterséges intelligencia-kutatás nem a megvalósíthatatlan funkciók megvalósításán alapul; azon alapul, hogy megpróbálják reprodukálni az ismert példákattermészetesintelligencia, főleg emberi intelligencia , teljes rendetlen dicsőségében; és a tanuláson alapszik.

Ezenkívül Yudkowsky néhány kritikusa sürgetőbb fenyegetéseket állapít meg, mint barátságtalanságot: az AI-k szándékos fegyverkezése, kódolási hibák, maguk az emberek, a kiborgizálás stb.


Yudkowsky / Hanson vitázik

Közgazdász Robin Hanson , Yudkowsky akkori bloggerje, többször vitatta Yudkowsky-t az 'AI foom' -on. Hanson, aki korábban évek óta mesterséges intelligencia-kutató volt, 2008-ban blogbejegyzések sorozatát írta Yudkowsky-val és 2011-ben személyesen vitatta meg. Ezeket a vitákat később e-könyvként gyűjtötték össze és tették közzé. 2014-ben, miután elolvasta Bostrom könyvétFelügyelet, Hanson ragaszkodott a fegyvereihez: írt egy másik blogbejegyzést, amelynek címe: 'Még mindig nincs kedvem'. Azt állította:

Az „intelligencia” csak annyit jelent, hogy mentális / számítási feladatokat végez, sok feladat átlagában. Mindig is hihetőnek tartottam, hogy a gépek továbbra is jobban elvégeznek többféle mentális feladatot, és végül majdnem mindegyikben jobbak lesznek. De amit nehezen fogadtam el, az egy „helyi robbanás”. Ez az, ahol egyetlen projekt, amelyet egyetlen projekt épített, csak a világ erőforrásainak apró töredékét használva, rövid idő alatt (pl. Hetek alatt) olyan gyenge, hogy általában egyetlen ember veri meg a szokásos eszközökkel, így hatalmas, hogy könnyen átveszi az egész világot. Igen, az okosabb gépek jelentősen megnövelhetik az általános gazdasági növekedési ütemeket, és igen, az ilyen növekedés egyenetlen lehet. De ez az egyenetlenségi fok hihetetlenül szélsőségesnek tűnik.

Közvetlenül e vita után Yudkowsky otthagyta az Overreaming Bias-t (ma Hanson személyes blogja), és a Szekvenciákat LessWrongba helyezte át.

A Google Alpha Go szoftverének és Lee Sedolnak a híres Go mérkőzése után 2016-ban még mindig nem láttak szemtől szembe. Hanson elmondta, hogy szerinte az általános célú mesterséges intelligencia analóg a nemzetállamokkal, sok munkást és ötletcserét igényel, míg a korlátozott számú speciális célú mesterséges intelligencia analóg a vállalkozások termékcsapataival, és olyan kritériumot adott, amely alapján elmélete elvileg , tesztelni kell - ekkor Yudkowsky azt mondta, hogy szerinte a világnak már „vége” lett volna, még mielőtt esély lenne Hanson elméletének igazolására! Yudkowsky azt állította, hogy a különböző mesterséges mesterséges laboratóriumok saját mesterséges mesterséges edzéseket végeznek, és szinte semmilyen cserét nem folytattakelőre kiképzettmodulok illszakemberalkatrészek. (Azonban,TábornokAz AI alkatrészeket széles körben újrafelhasználják a vállalatok között.)

Yudkowsky korábban bejelentette azt a meggyőződését, hogy ha (mint valójában) az Alpha Go legyőzte a Go nagymestert, az azt jelentené, hogy az egyediség egyre közelebb kerül - annak ellenére, hogy az előző alkalmak, amikor a számítógépek társasjátékban legmagasabb rangú embereket vertek meg ( dáma és sakk) továbbra is jóval az emberi csecsemő intelligenciája alatt hagyta a számítógépeket.


Szingularitás Intézet / MIRI

1998-ban Eliezer Yudkowsky elkészítette a „Transzhumán mesterséges intelligencia kódolása” első változatát, más néven „Megjegyzések az önnövelő intelligencia tervezéséhez”. Ezt követően néhány hónapig tervezési jegyzeteket írt a Flare nevű új programozási nyelvhez. Ezt követően írta a „Terv a szingularitáshoz” című filmet, bemutatva a Szingularitás Intézet gondolatát. 2000 májusában, az Előrelátó Intézet ülésén az intézet létrehozásának ötlete további két embertől kapott támogatást. Most létrehozták a Szingularitás Intézetet egy weboldallal. Aztán megírta a „Transhuman AI kódolása” átdolgozott változatát. Július 23-án az SI egy Dimitry Myshkin vezetésével elindította a Flare projektet. A projektet 2003-ban törölték. A kezdetektől fogva Eliezer Yudkowsky fontosságot tulajdonított a „barátságos mesterséges intelligencia” létrehozásának. 2001-ben írt egy könyvigényes művet: „A barátságos mesterséges intelligencia létrehozása”.

2004-ben Eliezer Yudkowsky „nagyszerű betekintést” kapott. Ez Koherens Extrapolált Volíció (CEV) volt. Lehet, hogy egy személy nem mindig azt akarja, ami számára a legjobb. De Yudkowsky azt akarja, hogy a mesterséges intelligenciája azt tegye, ami igazán jó az embereknek. De hogyan oldaná meg az AI a problémát? Nos, úgy véli, hogy az AI számára az a legjobb, hogy átkutassa az ember agyát, és 'valami bonyolultt' tegyen (Eliezer szavai). Annak biztosítására, hogy az AI barátságos legyen minden ember számára, ezt 'valami bonyolultt' tenne meg mindenkinek. Az ehhez szükséges hatalmas számítási teljesítmény természetesen érthetetlenül nagy. Fogalmunk sincs arról, hogyan nézne ki ez a valóságban, ha megvalósulna.

2008-ig vagy 2009-ig a Singularity Institute gyakorlatilag egyszemélyes show volt. Minden kiadványa Eliezer Yudkowksy nevet viselte, és az SI-nek nem volt más teljes munkaidős alkalmazottja. A változás azonban 2008-ban következett be Kevésbé rossz . Hamarosan új szerzők új kiadványai érkeztek, mint Carl Shulman, N Tarleton és egy idő után Luke Muelhauser. És ez lett a szokás, a legtöbb cikket az újonnan felvett kutatók írták.

Az SI kutatásának új fókusza a döntéselmélet lett. 2010-ben Eliezer Yudkowsky közzétette az Időtlen döntéselméletet.

Egy másik dolog addigra láthatóvá vált. Együttműködés Nick Bostrom Future of Humanity Intézetével. SI kutatók és olyan FHI kutatók, mint A. Sandberg, Stuart Armstrong stb., Közös cikkei jelentek meg. Eliezer Yudkowsky és Nick Bostrom közös cikke 2011-ben jelent meg. A Bostrom 2014-es Superintelligence című könyve 15 alkalommal utal Judkowsky-ra. Közel 5 oldal volt a Koherens Extrapolált Volícióról is. 2009-ben Jeffery Epstein 50000 dollárt ajánlott fel a SIAI-nek.

Egyéb projektek

Rajongói fikció

Ó Istenem. Az emberi faj jövője egy srác kezében van, aki cross-fan-fictiont ír.
- Scott Alexander

Kicsit humorosabb, de mégis meglehetősen éleslátó elméjéhez olvashatja az övét Harry Potter rajongói fikció. Yudkowsky valójában nem minden, amit a Harry Potter versbe fektetett. A fanfic-et platformként kívánta használni a racionalitás szélesebb közönség számára történő megtanítására, mert úgy érezte, hogy az ésszerűség hiánya miatt az emberek elutasítják az AI-val és a transzhumanizmussal kapcsolatos elképzeléseit. A történetben a racionalista Harry (akit Mary Sue teljes avatarjává változtatott) megpróbálja felvenni a fejét varázslat miközben tudományos előadásokat tartott az idősebbeknek és a hallgatóságnak.

Ez egy nagyon jó olvasmány a fanfic számára (bár a legjobb eredmény érdekében egyszerűen ugorjon át a 30. és a 100. fejezet között), és a FanFiction.net-en nagyon magasan értékelik. Yudkowsky és rajongói úgy gondolják, hogy ez Hugo minőségű anyag; Yudkowsky arra kérte rajongóit, hogy spameljék a 2016 - os legjobb regény jelölését (mert a Szomorú kölykök , a Hugók spamelése biztosan meg fogja győzni az embereket arról, hogy inkább zseni vagy, mint valami elképesztő kakas), bár nem került be a listára. Egyes olvasók kevésbé voltak lenyűgözve, meglehetősen korán feladta a „Hariezer” arroganciája és prédikációja. Amint maga Yudkowsky megjegyzi egy facebook-bejegyzésben:

Azok az emberek, akiknek ez az [állapotszabályozó] érzelmük van, dühös véleményt hagynak a HPMOR 6. fejezetében, ahol panaszkodnak, hogy Harry mennyire nem tiszteli McGalagony professzort, és nem tudják elolvasni ezt a történetet.

Mások nem rajongók ragaszkodtak ahhoz, hogy részletes kritikákat írjanak és vitassák a didaktikai tartalmat. Kissé mulatságos volt az is, amikor valaki a LessWrong-hoz egy meglehetősen normális irodalmi elemzést tett közzé a főszereplőről, mint nárcisztól, nyilván anélkül, hogy észrevette volna, milyen mértékben ő önbetétes.

Lehet, hogy a LessWrong kifejlesztett egy kis eeny weeny apró a-t személyiségkultusz Yudkowsky körül, Eliezer Yudkowsky Tények listájával, de a rajongói fikcióvalnak,-nekláthatóan színdarab volt, amelyet az ő tudta nélkül készítettek.

Arbitális

A LessWrong fárasztása és Harry Potter rajongásának befejezése után Yudkowsky következő projektje az Arbital volt, egy izgalmas új versenytárs az oktatási piacon, a tanuláshoz képest más megközelítéssel. Wikipédia . Először 2015 márciusában javasolta:

Először a Wikipedia és / vagy a Tumblr és / vagy a szakértői felülvizsgálat utódjának kísérletét terveztem, és egy barátom teljes munkaidőben dolgozik annak megvalósításán. Ha ez a projekt a lehetséges siker felső százalékánál működik (HPMOR-szintű „jó, hogy működött”, ami velem nem gyakrabban fordul elő, mint amikor megpróbálok valamit), akkor ez segíthet a társadalmi társadalmi problémák (szándékosan homályosan mondta homályosan).

300 ezer dolláros finanszírozással fejlesztőket vettek fel, Yudkowsky pedig felügyeleti szerepet vállalt. Számos irányváltás történt. 2016 elején jelent meg, mivel a LessWrong Sequences egy másik üvegben volt; 2016 végéig „tömeges, intuitív matematikai magyarázatok helyeként” jelölte meg magát, amely egy olyan terület, ahol valójában esélye volt megverni a Wikipédia közismerten átlátszatlan matematikai cikkeit, csakhogy nem találtak elég hozzáértő embereket hogy megírjam őket. 2017 elején a címlap egy Slashdot-stílusú összesítő volt a MIRI szubkultúrában élők számára; március végére végül beismerték a vereségüket, és a címlapot hamarosan elkészítették egy blogolási platform számára.

Egy projektfejlesztő sajnálta Yudkowsky vezetési stílusát.

Szintén ekkor világossá vált számunkra, hogy a dolgok egyszerűen nem mennek jól. Az elsődleges kérdés az volt, hogy teljes mértékben az Eliezerre támaszkodtunk, hogy útmutatást adjon arról, hogy mely funkciókat és hogyan kell megvalósítani. Gyakran, amikor megpróbáltuk a maga módján csinálni a dolgokat, felülbíráltak minket. (Soha tisztességes ok nélkül, de azt gondolom, hogy sok esetben mindkét félnek volt érdeme. Eliezer nézőpontjának figyelembevétele azt jelentette, hogy gyakran blokkoltuk őt, mert nem tudtuk megjósolni a következő lépéseket.) Továbbá, mivel Eliezer volt az egyetlen ember, aki komolyan használta a terméket, sok funkcióhoz nem volt elég gyors visszajelzés. És mivel nem voltunk minden nap velünk az irodában, gyakran blokkoltak minket.

Tehát úgy döntöttünk, hogy saját kezünkbe vesszük az ügyet. Hárman eldöntöttük, hogy mit tegyünk, és alkalmanként beszélgettünk Eliezerrel, hogy megkapja a véleményét konkrét dolgokról.

Eredmények

Miért kellene követnem az alapítótokat, amikor ő nem a nyolcadik szint, a saját kultuszán kívül?
—Eliezer Yudkowsky
Yudkowsky.

Fontos megjegyezni, hogy Yudkowsky, amellett, hogy nem rendelkezik képzettséggel az állítólagos területén, jóformán semmiféle teljesítményt nem érdemel a hitelén, azon túl, hogy megszerezte Peter Thiel hogy adjak neki pénzt. (És továbblépek az Ethereum kriptovaluta programozókhoz.)

Még rajongói is elismerik, hogy „itt egy visszatérő téma„ grandiózus, befejezetlen terv ”. Azt állítja, hogy képzett számítógépes programozó, de a Flare-n kívül más kód nem áll rendelkezésre, az XML-alapú szintaxissal rendelkező AI programozás befejezetlen számítógépes nyelve. (Állítólag ez volt az a programozási nyelv, amelyen a SIAI kódolni fogja a Seed AI-t, azonban 2003-ban törölték). Szükségesnek találta professzionális programozók felvételét Arbital projektjének (lásd fent) megvalósításához, amely végül kudarcot vallott.

Yudkowsky szinte teljesen publikálatlan saját alapítványán és blogjain kívül, és soha nem fejezte be a középiskolát, még kevésbé végzett tényleges mesterséges intelligencia-kutatást. AI kódolásának mintája nem került nyilvánosságra.

Dolgozatai általában saját kiadásúak, és 2015-től kezdve összesen két idézetet tettek közzé a JSTOR által archivált folyóiratokban (az AI-vel sem), az egyik barátjától, Nick Bostromtól származott a szorosan kapcsolódó Future of Humanity Institute-ban.

Tényleges, megfigyelhető eredményei a való világban: egy népszerű rajongói fikció (amit becsületére kell mondani, hogy valóban befejezte, a műfaj számára szokatlanul), egy pasztiche erotikus könnyűregény, egy nagy halom blogbejegyzés és egy meglepően jól finanszírozott kutatás. szervezet - amely másfél évtized alatt kevesebb dolgozatot készített, mint egy doktorandusz hallgató fizika Ph.D. alatt, és ez utóbbi szakértői vélemény .

Zseni vagy hajtókar?

Teljesen világos, hogy Yudkowsky zseninek tartja-e magát; „önéletrajzában” hatszor emlegeti magát zseninek. Azt is állítja, hogy „véletlenszerűen nyerte meg az írói tehetség lottóját”. Szerinte a legtöbb doktori fokozat meglehetősen hétköznapi azokhoz az emberekhez képest, akikkel szurkol:

Az AGI konferenciákon megjelenő kutatókkal kapcsolatban az az igazán feltűnő tény, hogy olyan ... nem tudom, másképp fogalmazzak ...

...rendes.

Nem a mesterséges intelligencia nagy mainstream neveinek intellektuális szintjén. Nem John McCarthy vagy Peter Norvig (akikkel mindketten találkoztam) szintjén.

Kísértésnek mondom, hogy a mesterséges intelligencia doktori fokozata negatívan hasznos lenne, de nem vagyok az, aki valakinek vakmerő fiatalságát elköveti velük szemben - pusztán azért, mert doktori fokozatot szerzett az AI-ben, nem jelenti azt, hogy véglegesen kizárják.

Ugyanakkor elismeri, hogy kevésbé okos, mint John Conway. Mint a otthon tanult főiskolai végzettség nélküli egyén, Yudkowsky teheti nem lehet ideális helyzetben ahhoz, hogy megbecsülje saját intelligenciáját . Az, hogy követői közül sokan azt hiszik, hogy zseniális, alábecsülendő. Hasonlóképpen, néhány követője gúnyolódik a fő tudósoktól, csak keresse meg a következőket: nem okos a laboron kívül 'és' a híresség tudós . ” Yudkowsky úgy véli, hogy az AI doktori fokozata nettó negatívum, ha a Seed AI-t illeti. Miközben Yudkowsky nem támad Einstein , valóban úgy gondolja, hogy tudományos módszer nem tudja kezelni az olyan dolgokat, mint a Sok világ Értelmezés, valamint álláspontja Bayes tételéről. A LessWrongnak valóban megvan a maga egyedi zsargonja.

Csak azért, hogy az olvasó ne érje azt a téves benyomást, hogy Yudkowsky szakadatlanul büszkélkedik értelmével, itt azzal dicsekszik, hogy milyen kedves és jó:

Pár év erőfeszítéseket tettem a főbb érzelmek (egó kielégülés és így tovább) megtisztítására, ami után nagyjából teljesen önzetlen voltam a nyers motivációk tekintetében, bár ha megkérdeztek volna, mondtam volna valamit a sorok: 'Nos, természetesen még mindig tanulok ... valószínűleg még mindig meg kell takarítani ezeket a fel nem fedezett dolgokat ...'

Yudkowsky elképzeléseivel való egyet nem értést gyakran annak tulajdonítják „válogatás nélküli szkepticizmus”. Ha nem hiszed, hogy a krionika működik, az azért van, mert figyeltél Penn & Teller: Baromság! . Csak nem lehetséges, hogy nem hiszed, hogy működik, mert sikertelen tesztek voltak, és a tények .

Vitatottabb álláspontok

Annak ellenére, hogy a legokosabb kétlábú lénynek tekintik, aki valaha járta ezt a bolygót a LessWrongon, Yudkowsky (és ennek következtében a LessWrong közösség nagy részének is) egyetért abban, hogy Igazság amelyek tulajdonképpen ellentmondásosak a saját területükön. Az alábbiakban látható egy részleges lista:

  • Transzhumanizmus helyes. A Cryonics valamikor működhet. Közel van a szingularitás!
  • Bayes-tétel és a tudományos módszer nem mindig vezet ugyanazokra a következtetésekre (és ezért Bayes jobb, mint a tudomány).
  • A bayesi valószínűség válogatás nélkül alkalmazható.
  • A nem kiszámítható eredmények, például a Kolmogorov-komplexitás, teljesen ésszerű alapot jelentenek egy teljes ismeretelmélet számára. Salamon, kicsim!
  • Sok világ értelmezése (MWI) kvantumfizika helyes (egy „slam dunk”), annak hiánya ellenére konszenzus kvantumfizikusok között. Yudkowsky szerint az elméleti fizikusok többsége osztja vagy nem osztja véleményét, hozzátéve, hogy a közvélemény-kutatási kísérletek ebben a kérdésben ellentmondásosak.
  • Evolúciós pszichológia megalapozott tudomány.
  • Filozófia olyan könnyű téma, hogy „menet közben újból kitalálhatja”.
  • Haszonelvűség az erkölcs helyes elmélete. Különösen egy olyan keretet javasol, amely révén rendkívül, rendkívül sok olyan ember, aki egy pillanatra porszemcsét tapasztal a szemében, rosszabb lehet, mint egy 50 évig kínzott ember. Pontosabban Yudkowsky véd totális haszonelvűség ebben a gondolati kísérletben.

Továbbá, bár nem túl világos, hogy mi a tényleges álláspontja ezzel kapcsolatban, hol írt egy rövid sci-fi történetet erőszak röviden törvényesként említették. Úgy tűnt, hogy a rajta megjegyző karakter ugyanúgy nem a konszenzusos szexre utal, mint ahogyan ma tettük, nem akadályozta meg a megjegyzés-szakasz hatalmas reakcióját. Azt válaszolta: 'Az a tény, hogy átvették a megjegyzéseket, nem olyan jó, mint reméltem, de a reakció sem volt olyan rossz, mint féltem.' Az általa szem előtt tartott tudományos-fantasztikus világot inkább 'Furcsatopiának', nem pedig 'a' -nak nevezte disztópia .