Principiile Singularitariene

12.01.2013 | Autor: | Publicat în categoria Singularitate

Eliezer S. Yudkowsky este cercetator la “Singularity Institute for Artificial Intelligence, situat in Palo Alto, California.

La varsta de 16 ani citeste volumul de povestiri SF “True Names” al scriitorului Vernor Vinge. In urma acestei lecturi, hotaraste sa se specializeze in Singularitate.

Yudkowsky este cunoscut pentru activismul sau in ceea ce priveste Singularitatea. Crede cu adevarat in beneficiile pe care Singularitatea le va aduce umanitatii. Si, din aceasta cauza, scopul nostru ar trebui sa fie accelerarea dezvoltarii tehnolofice pentru a o avea cat mai curand.
A creat prima lista de discutii despre acest subiect incercand sa-i adune pe sustinatorii Singularitatii intr-o comunitate si, cativa ani mai tarziu, a ajutat la crearea primului cadru organizat de studiu aprofundat si implementare directa a Singularitatii.
Lucrarile lui Yudkowsky s-au concentrat pe proiectarea unei Inteligente Artificiale capabila de auto-analiza, auto-modificare si auto-imbunatatire (“seed AI”); a insistat pe posibilitatea crearii unei arhitecturi care sa permita realizarea unei Inteligentei Artificiale “binevoitoare” (“Friendly AI”).
Este autorul lucrarilor de o mare importanta pentru domeniul Inteligentei Artificiale: “Levels of Organization in General Intelligence” si “Creating Friendly AI“.



Principiile Singularitariene
Versiunea 1.0.2 01/01/2000
Versiunea extinsa
©1999-©2001 – Eliezer S. Yudkowsky.
Revizuita 04/19/2001.
Toate drepturile rezervate.
________________________________________
• Prefata

Principii definitorii:
• Singularitatea
• Activismul
• Ultratehnologia
• Globalismul

Principii descriptive:
• Apoteoza
• Solidaritatea
• Inteligenta
• Independenta
• Non-suprimarea
________________________________________

Prefata
Imaginați-vă cum va arata această planetă cu numai câțiva ani înainte de sfârșit, când va exista o Inteligenta artificiala in fiecare calculator și programatorii vor discuta deschis despre modalitatea de rulare a unei Transcendențe. Imaginați-vă, de asemenea, momentul in care va începe să existe această Transcendență, ori când primii oameni cu inteligența amplificată vor începe să se facă remarcați. Se mai pune si întrebarea dacă aceste evenimente vor fi publice si dacă nu se vor fi încheiat cumva la numai câteva milisecunde după declansarea lor.

Va fi o casă de nebuni. Fiecare om de pe planetă care ia Singularitatea în serios va încerca să facă ceva, orice, pentru a impresiona Singularitatea. Ce va face un Singularitarian intr-o asemenea nebunie? Cum putem defini un Singularitarian, din moment ce Singularitatea existenta chiar in fiinta Singularitarului, încetează să fie visul-Singularitate și devine evenimentul-Singularitate? Singularitatea este reală. Ce este un Singularitar?

Versiunea anterioară (ediția draft 0.1) a acestor Principii a reprezentat o încercare de a defini cu precizie termenul de Singularitar; ceea ce am învățat din acea încercare a fost faptul ca, deseori, Principiile nu implica, automat, definiții. Pentru a face din fiecare principiu un test absolut care s-ar aplica până si Inteligentei Artificiale Singularitare – da, acesta a fost standardul pe care am încercat să-l folosesc – Principiile trebuiau să fie atât de bine conturate și delimitate încât deveneau neinteresante. Cele patru Principii marcate ca „definitorii” sunt cele care au supraviețuit acestei încercări, dar nici ele nu exprimă cu adevărat spiritul Singularitarismului. Celelalte Principii sunt o încercare de descriere, mai mult decât de definire.

Aceste Principii nu sunt acte de credinta; majoritatea Principiilor pot fi puse sub semnul întrebării, lăsate deoparte sau eliminate complet, și nimeni nu își va pierde „statutul” de Singularitar. De fapt, în concordanță cu Principiul Independenței, (A) a fi Singularitar este o decizie personală, nu comună, și (B) eu nu am o anume autoritate in a defini Principiile. Principiile, în special cele „descriptive”, exprimă opinii majoritare, curbe de includere mai largă sau mai restrânsă, structuri cognitive care pot fi modificate sau distruse fără a transforma obiectivul. Totuși, dacă nici unul dintre aceste Principii nu vi se aplică, mai mult ca sigur ca nu sunteți un Singularitar.

Și definiția propriu zisă? Singularitarii sunt adepții Singularității. Un Singularitar este cineva care crede că este de dorit o tehnologie care să creeze o inteligență superioara celei umane și care lucrează în acest scop. Un Singularitarian este prieten, susținător, apărător și agent al viitorului, viitor cunoscut sub numele de Singularitate.

Acesta este spiritul cuvântului. Puteți să îl urmați dacă:
– sunteți adeptul numai al unui anumit tip de Singularitate (1);
– priviți Singularitatea ca un mijloc de atingere a unui obiectiv superior, crezând că Singularitatea poate fi mai de dorit decat alte alternative – dar nu ceva ce trebuie ridicat în slăvi;
– ajutați la nevoie – pentru ca sunteți curioși, dar nu fanatici în privința Singularității;
– definiți Singularitatea ca fiind, mai degrabă, o schimbare drastică la nivel global generată de progresul tehnologic accelerat decât o schimbare drastică la nivel global generată de existența unei inteligențe superioare celei umane;
– sunteți o Inteligența Artificiala cu un sistem de obiective în care „apărător” sau „susținător” există numai ca sub-obiective temporare, și nu ca emoții separate.
Oricum, la sfârșitul zilei, un Singularitarian este un prieten al Singularității. „Singularitate” plus „arian” egal „Singularitarian”.

În sfârșit, după cum se afirma în Principiul Independenței, un Singularitarian este un prieten al Singularității mai degrabă decât al Singularitarianismului. Ceea ce duce la o întrebare: Principiile Singularitariene servesc vreunui scop al Singularității? Principiile Prietenilor Singularității cumva?

Iata cateva obiective: pentru a oferi coeziune comunității; pentru a oferi un rezumat simplu al principiilor de bază ce pot fi prezentat altora; pentru a face mai posibilă exprimarea „Singularitarienii gândesc” sau „Singularitarienii cred” (cu un anumit nivel de exceptabilitate); pentru a solidifica angajamentele prin solidificarea conceptului și, într-o anumită măsură, de a modela Singularitarienii prin modelarea meme-ului (2).

Principii Definitorii:

Singularitatea
Unul dintre adevărurile care definesc un Singularitarian este ceea ce crede (3) despre Singularitate – dacă este o Singularitate Puternică (si, implicit, incomprehensibila) sau una mai accesibila (Singularitate Slaba) (vezi si articolul lui Verne Vinge); daca este o Transcendență (eveniment generat) sau un Eveniment Asteptat; dacă este implicat sau nu feedback-ul pozitiv; dimensiunile rupturii dintre oameni și trans-umani; dacă lanțul de domino al schimbarilor se oprește la superinteligență, la Puteri sau merge mai departe.
Lucrul ciudat este că ceea ce credem despre Singularitate nu ar trebui să conteze atat de mult in acțiunile noastre. Singularitarianul care crede într-o Singularitate Slabă determinată de un progres economic supra-accelerat, eliminând astfel sărăcia și foametea, probabil ar calcula în jurul aceleiași „distribuiri raționale de eforturi”.
La fel si cel care crede că masa planetară va fi transformată în nanocomputere și că fiecare om va fi „incarcat” într-un paradis privat, că fiecare om va deveni o Putere cu propria retea de gauri de vierme dintre Universuri sau care, pur si simplu, crede în Evenimentul Asteptat – deoarece nu are sens să prezici ce este dincolo. Dacă un câine nu a putut să o facă, un om de Neanderthal n-a putut să o facă și nici macar un om din secolul 19, atunci nici noi nu putem.

In practică, insa, visul Singularității este unul care modelează. Visul Singularității este în continuare un concept uman (spre deosebire de evenimentul-Singularitate însuși), dar este un vis destul de puternic incât să poata modifica mintea ce-l viseaza. Dacă privești destul de mult timp(4) în Singularitate, Singularitatea se uită înapoi la tine.. Visul Singularității este miezul idealurilor noastre Singularitariene. Se poate afla chiar în noi insine sau la capătul îndepărtat al curbei acestui principiu. Ideal este ca, în timp, personalitatea noastra sa absoarba o parte din șocul acestui vis, o parte a stranietății lui. (Și, după aceea, să folosim intelesurile deduse ca să șocăm lumea la petreceri).

Efectul pe care îl descriu este un dat uman.(5). Odată ce ai vizualizat cea mai inteligentă și deșteaptă entitate pe care ți-o poți imagina, începi să te remodelezi în imaginea acelei entități. A, dacă vizualizarea este doar pe jumătate competentă, nu vei avea nici o șansă să atingi nici măcar nivelul imaginii, și vei ști acest lucru. Dar raman cateva puncte de decizie, în special emoționale, filosofice și de imagine personala, de la care până și visul cu privire la Putere este mai rațional decât sunt oamenii meniti sa accepte.Cu destulă cunoaștere de sine și suficiente cunoștințe (in special de știință cognitivă), poți trece la index părți din ce în ce mai mari ale personalității tale, etichetandu-le drept „antropomorfice” și poti să încerci sau să le elimini, sau să le contracarezi si să le folosești în mod optim, în funcție de cât de adânc esti capabil sa sapi.

Visul super-rațiunii tinde să modeleze propria rațiunie, iar puterea șocului viitor din visul Singularității este un determinant al tiparului și fortei unui Singularitarian.

Activism
Singularitarienii sunt adepții Singularității. Un Singularitarian este o persoana care crede că este de dorit o tehnologie care să creeze o inteligență superioar celei umane. El lucrează în acest scop. Este susținător, apărător, agent și prieten al viitorului cunoscut sub numele de Singularitate.

Definiția anterioară dată cuvântului „Singularitarian” – care nu era a mea – afirma ca un Singularitarian este „o persoana care susține ideea progresului tehnologic ce va duce la o singularitate în istoria omenirii”. În această re-generare a termenului, incerc sa redefinesc cuvântul „arian”, pentru ca sensul acesuia sa însemne „susținător al” – în sensul activ al cuvântului „susținător” – și nu „care crede în”. Redefinesc „Singularitatea” din „Singularitarian” pentru a ne putea referi la evenimentul-Singularitate și nu la meme-ul Singularitate. Cu alte cuvinte, „Singularitarian” înseamnă acum „cineva care acționează pentru a spori șansele unei Singularități”, nu cineva care doar crede că o Singularitate e posibilă sau probabilă.

Acesta e cuvântul cheie: acțiune.

În termeni cognitivi, Singularitatea este un obiectiv major – unul capabil de inițiere de noi planuri, obiective secundare și acțiuni. Nu este de ajuns să influențezi viitorul atunci când apare o ocazie, un Singularitarian caută astfel de oportunități dacă nu este nici una prezentă, sau le creează dacă nu există.

Cu alte cuvinte, acest Principiu este o afirmație cantitativă; ajutorul oportun reprezintă 24%, căutarea oportunităților reprezintă 50% și planificarea pe scară largă și crearea oportunităților – 80%. Sau, având în vedere că activitățile mentionate sunt mediate de talent și necesitate, acest Principiu are o curbă a adevărului măsurată prin nivelele de voință emoțională și dedicație cognitivă care au ca rezultat aceste activități, toate celelalte elemente fiind considerate egale.

Mulți dintre noi, sunt sigura, nu suntem atât de activi cum ne-am dori. În acest moment, ”activismul” nostru poate să însemne o așteptare pentru ca ceva să apară de facut. Nu toți ne pricepem la făcut planuri; pentru a căuta și a crea oportunități este nevoie de timp și de talent, nu numai de voință. Dar măcar voința trebuie sa existe. Poate lucrurile vor evolua mai rapid o dată cu crearea Institutului pentru Singularitate.

Ultratehnologie
„Singularitatea” este un eveniment natural, non mistic, declanșat de tehnologie. Într-un anume sens, aceasta nu este o constrângere asupra credinței ci, indeosebi, asupra terminologiei – dacă se întâmplă să crezi că Singularitatea acestei planete reprezintă sau este identică cu Apocalipsa vreunei religii, de la Epoca lui Kali până la Armaghedonul creștin – sau chiar dacă crezi că Singularitatea este destinul inevitabil al omenirii din motive morale, nu ca urmare a unor motive cauzale – e în regulă, câtă vreme taci din gură în legătură cu asta.

Sau poate că un ordin de a-ți ține gura e puțin cam vehement. Dar păstrează terminologia clară și termenii separați. Spune: „Cred ca evenimentul natural numit Singularitate sau crearea tehnologică a unei inteligențe superioare celei umane va declanșa evenimentul religios numit Armaghedon”. Și, dacă vrei să aduci Armaghedonul și nu Singularitatea, spune-ți Armaghedonist, nu Singularitarian.

Desigur, diferenta ontologică dintre evenimentul „natural” și cel „mistic” nu este tocmai clară. La fel si definitiile pentru „science fiction” și „fantasy”, care reprezinta în cotinuare un subiect discutat în comunitatea ”speculative fiction”. Dar mă aștept ca discuțiile despre Singularitate să ia in considerare granița reală dintre tehnologie și magie, aceeași care separă și science fiction-ul de fantasy: Dacă faci ceva apăsând un buton, e tehnologie. Dacă o faci incantând o vrajă, e magie.Dacă faci cevafoarte interesant apăsând un buton, e ultratehnologie. Singularitatea este ceva foarte interesant care se întâmplă când apăsăm un buton.

La fel, dacă un lucru se întâmplă pentru că oamenii îl fac să se întâmple, e natural; dacă un lucru se întâmplă din cauza unei necesități morale, atunci nu sunt sigur ce este. Poate „fatalism”? In orice caz, nu este considerat „natural”; dacă ceva pare sortit să se întâmple indiferent de ce facem, e destin. Singularitatea este un eveniment natural și, de aceea, încercăm să îl facem să se întâmple cu ajutorul tehnologiei.

Acesta este și motivul pentru care inteligența „superioară celei umane” trebuie să implice o îmbunătățire hardware, nu doar o nouă filosofie personală. Este posibil ca o filosofie personală importată din Transcend (6) poate să mărească de 4 ori IQ-urile sau să permită reprogramarea neuronilor individuali, dar nu aici. Mai presus de toate, să ai o idee genială nu respectă legea de bază: nu implică apăsatul de butoane. Inteligență artificială! Interfațe neuro-computerizate! Acolo e butonare serioasă!Acolo e ultratehnologie!

Noi, Singularitarienii, suntem uniți în scopul de a determina un eveniment natural prin metode naturale, nu stând în cerc în jurul unui computer si făcând incantații. Sunt mii, poate milioane de povești, profeții și ritualuri care pretind că vorbesc despre ceva care poate fi descris teoretic drept inteligență superioară celei umane. Ceea ce ne deosebește pe noi, Singularitarienii, de restul lumii este faptul că noi dorim să declanșăm un eveniment natural cu ajutorul ultratehnologiei, fără să ne bazăm pe mijloace mistice sau efecte morale. Dacă acceptăm ca „Singularitatea” sau „Singularitarianul” să încorporeze orice altceva, meme-ul se va dezintegra.

Dacă ai vreun scop mistic/religios ori o viziune moral-valentă a procesului si te numesti Singularitarian, ar trebui să le menționezi o dată, maxim, să taci din gură după aceea și să nu o lași să fie evidentă în acțiunile tale – dar acesta este mai mult un Principiu Descriptiv menit sa previna transformarea acțiunii într-un răzoi religios. Cu privire la Principiul Descriptiv, nu am nici o problemă cu ideea unui Singularitarian motivat religios, câtă vreme convingerile sale despre natura Singularității nu se văd în detaliile inginerești ale navigării către Singularitate – câtă vreme credința este doar un factor de motivație sau o afirmație a rezultatelor și nu se amestecă în partea din Singularitate pe care trebuie să o manevrăm și să o transformăm în ceva diferit de o simpla apăsare de butoane.

Vă rog să nu ma înțelegeți greșit – dacă aș fi convins că am descoperit un ritual magic prin care să creez AI, l-aș face imediat. Nu spun că e ceva greșit sau neîntemeiat în a folosi altceva în afară de tehnologie. Judecând după istorie, nu cred că va merge. Dar asta este o altă problemă.
Nu este necesar nici ca cineva să fie Singularitarian pentru a se putea implica în Singularitate. Dacă tehno-păgânii vor să ajute, au tot dreptul – Singularitatea aparține omenirii (Solidaritate) și nu trebuie să fii Singularitarian ca să ai un motiv ascuns care să poate servi pe neștiute Singularitatea (Independență).

Principiul Ultratehnologiei acoperă, de asemenea, și fascinația generală pentru tehnologia „cool” pe care am moștenit-o de la trans-umaniști. Câtă vreme te simți blazat în prezența tehnologiei și esti, totuși, Singularitarian cu drepturi depline, probabil ca putem să iertăm vorbăria mistică, dacă ești un tehno-mistic – și prin asta nu înțeleg să îți acoperi misticismul cu aiureli împrumutate din broșuri pseudo științifice aparute in ultimele doua secole (7); înțeleg să îți petreci timpul liber cu Explozibili Distractivi sau spărgând Linux sau ceva de genul ăsta.

Voi fi, totuși, strict asupra aspectului naturalist. Cred că toți trebuie să îl tratăm ca pe o parte necesară a definiției, după cum sugerează formularea din primul paragraf. Trebuie să privim pe oricine care violează Principiul drept un element dificil pentru că, dacă ieșim în public, vom avea o granadă de nebuni care o să violeze acest Principiu.

Încerc doar să țin cuvântul – și meme-ul – curat. Istoria ne arată că orice concept puternic, precum cel de „Singularitate”, poate fi ușor de distrosionat sau chiar deturnat.

Globalism
Conform unor formulări greșite ale conceptului de Singularitate, primul grup care va dezvolta tehnologia cheie va controla Universul, în timp ce restul omenirii isi va câștiga cu greu existența sau va fi, pur și simplu, exterminată. În alte formulări, soarta indivizilor este chiar dependentă de convingerile lor ideologice sau de talentele intelectuale native. Sunt sigur că nu este cazul aici, pentru că ideea ca un eveniment să se întâmple numai unei părți a omenirii este antropomorfica sau chiar “gaussiomorfica” (8), pentru că sugerează existenta unor forțe aflate în echilibru cu lumea; sugerează existenta unor forțe care variază în același fel în care variază și oamenii, astfel încât forțele să afecteze numai o parte din oameni. În realitate, orice tehnologie de nivelul celei de care se ocupă Singularitarienii ar acționa în același mod în relația cu toți oamenii. Diferența ideologică dintre indivizi n-ar conta deloc – forțele implicate au ordine de magnitudine mult mai mari, ca un val de reflux pe suprafața unui iaz sau un miliardar cumpărând o pereche de pantofi. În versiunea “PRIETENOASA” a singularității, în Prietenia bazate pe voință – în particular, această forță imensă s-ar putea încă să respecte alegerea individuala. Dar, dacă e așa, Singularitatea ar respecta alegerea facuta de catre toti oamenii, de catre toate mințile constiente, fără să observe diferenta de formă sau înfățișare.

Dar asta e doar părerea mea personală despre cum funcționează Universul. Dacă un Singularitarian crede ca datele existente indică faptul că primul grup care va dezvolta Inteligenta Artificiala va câștiga totul, atunci așa e. Totuși, nu este loc în comunitatea noastră pentru „motivele ascunse împărtășite” ale cuiva care este dispus să accepte numai varianta lui personală a unei Inteligente Artificiale drept un succes. Acea persoana ar considera o Singularitate obținută de altcineva drept un eșec. Suntem uniți prin faptul că succesul tău este și succesul meu. Dar, de fapt, principiul Globalismului este insuficient pentru a sprijini acest rezultat; armonia care trebuie sa existe necesită și Principiul Nonsupresiunii. Mai departe de asta, Singularitarienii nu s-au pus rău cu omenirea, pentru că toți avem niște loialități. Dar asta rezultă din Principiul Solidarității.

Principiul Globalismului este, de fapt, o problemă de definiție, una foarte subtilă, marcând diferența dintre termenii „Singularitarian” și „post-umanist”. Este posibil să dorești să determini un eveniment care s-ar putea numi „Singularitate” fără să fii „Singularitarian”. Cineva care crede că primul care reuseste sa determine aparitia Singularitatii va câstiga totul și va lăsa restul omenirii cu ochii în soare, acela care vrea să fie el primul, încearcă să producă un eveniment care s-ar încadra în definiția Singularității… dar acea persoană nu este un Singularitarian. Un postumanist, poate. Dar nu un Singularitarian.

Poate cea mai bună analogie este intre termenii de „libertate” și „libertarian”. Să fii un „libertarian” nu înseamnă că aperi libertatea numai pentru tine, ci pentru o intreaga societate. Nu are nimic de-a face cu altruismul. Obiectiviștii, cei care văd altruismul ca pe un rău activ sunt, totuși, libertarieni. Poți să fii libertarian pentru că ești de părere că libertatea celorlați amplifică motivele tale strict egoiste; poți să fii libertarian pentru că apărarea libertății tuturor este necesară pentru apărarea libertății individuale; poți să fii libertarian din cauza principiilor morale, din pragmatism, sau pentru că așa ți-a spus astrologul. Motivațiile n-au nimic de-a face cudefiniția, care spune clar că un libertarian este o persoană care susține libertatea pentru toți. Cineva care suține libertatea numai pentru sine însuși poate fi la fel de bine în favoarea autocrației, teocrației, monarhiei, dictaturii.. De fapt, in favoarea a aproape orice.

In mod similar, deși Singularitatea este, pur și simplu, o inteligența superioara celei umane, „Singularitatea” din „Singularitarian” este Singularitatea așa cum este văzută din perspectiva intregii omeniri. Așa cum „libertatea” din „libertarian” este gradul de libertate disponibil pentru societate, „Singularitatea” din „Singularitarian” este atat acel ceva care se întâmplă rasei umane, cât și orice eveniment care ar veni după. Este evenimentul văzut dintr-o perspectivă globală, așa cum „libertatea” din „libertarian” este globală. Dacă nu susții libertatea globală, nu ești libertarian. Dacă nu susții Singularitatea globală, dacă susții o Singularitate privată, personală, nu ești Singularitarian. Din nou, asta n-are nimic de-a face cu moralitatea sau motivatia; este o problemă de definiție. Folosesc verbul „a susține” în loc de „a vrea” pentru că motivele pentru care o susțin nu au nimic în comun cu definiția; este perfect posibil să susții libertatea globală, să fii libertarian și să îți pese numai de libertatea ta.

(Pentru cei care au trecut direct la Singularitarism fără să se oprească la trans-umanism pe drum și se întreabă de ce naiba fac atâtea eforturi să nu spun nimic rău despre egoism, ei bine, o fac pentru că un număr mare de filosofii transumaniste etice sunt egoiste în sens fundamental. Este un „egoism” profund formal – de exemplu, obținerea unei plăceri egoiste din satisfacerea impusului personal către opere de caritate este, în întregime, acceptabila (cu excepția nebunilor de Obiectiviști). După părerea mea, asta este o parte a reacției generale exagerate a filosofiilor tehno-capitaliste față de marele dezastru comunist; dar asta este, desigur, doar părerea mea).

La asta se referă principiul Globalismului – să fii dispus să împărtășești soarta celorlați oameni. Nu cerem altruism. Poți să fii parte in aceasta schimbare doar pentru a deveni zeu. Dar trebuie să crezi că zeificarea va fi disponibilă pentru toți. Poți să crezi că Singularitatea va extermina omenirea și se va duce spre lucruri mai bune, dar atunci ar trebui să crezi că te va extermina și pe tine. Poți să crezi că primul grup care va dezvolta IA va controla Universul, dar va trebui să fi dispus să lași pe alt Singularitarian să o dezvolte. Orice soartă crezi că va avea omenirea, trebuie să fii dispus să o împărtășești. Singularitatea poate să fie scopul tău personal, dar nu poate fi o Singularitate personală.

La fel ca și cu Ultratehnologia. Probabilitatea ca această parte a meme-ului să fie deturnată este destul de mare, iar consecințele acesteia destul de nedorite (putand fi numiți, pe buna dreptate, naziști), de aceea cred că trebuie să tratăm Globalismul ca o parte necesară pentru a fi Singularitarian. Prin urmare, exprimarea trebuie sa fie definițională.

Principii descriptive:
Acestea sunt articole care, în general, tin de opiniile personale despre Univers, opinii care variază independent de acceptarea faptului ca Singularitatea este posibilă și de dorit. Principiile Descriptive sunt „detașate”, pot să fie respinse independent de meme-ul Singularitarian propriu-zis. Totuși cred ca aceste Principii formează o parte importantă fie a Singularitarismului, fie este liantul ce ține comunitatea Singularitariană unită.

Apoteoză
Singularitatea oferă posibilitatea de a câstiga marele premiu, adevărata Utopie, cea-mai-bună-din-lumile-posibile – nu doar eliberarea de durere și stres sau o rundă sterilă de plăceri fizice (9), ci perspectiva creșterii infinite pentru fiecare ființă umană – creșterea în minte, în inteligență, în putere a personalității; viață fără frontiere, fără sfârșit; să experimentăm tot ce am visat vreodată, să fim tot ce ne-am dorit să fim; nu pentru un miliard de ani, sau 10 la puterea un miliard ani, ci pentru totdeauna… sau poate să întreprindem împreună o aventură și mai mare, pe care nici nu o putem concepe. (10). Aceasta este Apoteoza.

Acceptăm posibilitatea că acest viitor poate sa nu devina realitate; sunt multe reprezentari in care Apoteoza este imposibilă. Probabil, cea mai comună categorie este cea în care superinteligențele nu au nici un motiv să fie atașate de omenire. Situatie in care superinteligențele ajung inevitabil să aiba cu totul alte scopuri cu care noi, oamenii, nu putem avea nimic in comun. Sau nu suntem destul de optimizați – așa că va trebui sa fim descompuși în atomi. Poate că, în acest caz, superinteligențele au dreptate și noi nu. Ipotetic, dacă am ajunge la punctul unde înțelegem problema, am fi de acord și ne-am sinucide.

A fost un moment în care eram sigur că superinteligent înseamnă super-etic (probabil adevărat) și că această etică poate fi interpretată antropomorfic, adică drept bunătate și iubire (nu se știe niciodata). Acum, odata cu inventarea conceptului de „Inteligenta Artificiala prietenoasa”, lucrurile au devenit mai complicate. Apoteoza este, cu siguranță, o posibilitate. Refuz să sper la o Apoteoză care contravine binelui fundamental, dar pot să sper că binele fundamental se dovedește a fi o Apoteoză – și, dacă nu există „bine fundamental” si nici o formulare obiectivă a moralității, atunci Apoteoza este cu siguranță sensul pe care l-aș alege. Sper, astfel, că noi toți suntem de acord cu posibilitatea unei Apoteoze, chiar dacă nu este neapărat prima prioritate a fiecărui Singularitarian.

Principiul Apoteozei acoperă atat motivatiile trans-umaniste cat și cele altruiste de a fi Singularitarian. Sper că și printre trans-umaniștii cei mai egoiști din punct de vedere filosofic, ideea de a înălța pe toată lumea la statutul de zei sună cel puțin la fel de distractiv ca si propria zeificare. Există păreri diferite despre cât de bine ne distrăm pe planeta asta, dar cred că suntem cu toții de acord că nu ne distrăm atat de mult cât ar trebui.

Chiar după mai multe doze din șocul produs de viitor și toate celelalte chestii distractive pe care identitatea mea de Singularitarian mi le-a înlesnit, încă îmi place să mă gândesc la mine ca fiind pe drumul cel bun pentru vindecarea planetei – rezolvând, pur și simplu, toate problemele lumii. Așa am ajuns aici. În fiecare zi, 150.000 de oameni mor, iar majoritatea supraviețuitorilor trăiesc într-o disperare mută. Ni se spune să nu ne gândim la asta; ni se spune că, dacă admitem aceasta situatie, mințile ne vor fi strivite. (11). Eu, cel puțin, pot să accept realitatea abuzurilor comise asupra copiilor, a cruzimii, morții, disperării, analfabetismului, injustiției, bătrâneții, durerii, sărăciei, prostiei, terorii, torturii, tiraniei și oricarei alte rele la care te poți gândi, pentru că încerc să le opresc. Pe toate. Pentru totdeauna.

Nu e o promisiune. Nu poate fi vreodată o promisiune. Dar, mi-aș dori ca toți oamenii nefericiți din lume să știe că, oricare ar fi problele lor, există încă o speranță. Cineva, undeva, muncește că să le elimine. Eu muncesc ca să le elimin. Sunt multe lucruri rele în lume și multe forțe puternice care le produc – Legile lui Murphy, întâlnirile pe nevăzute, egoismul cu sumă negativă. Dar există și vindecători. Nu sunt forțe, sunt minți care au ales să se opună urâtului. Până acum, poate, n-am avut cunoștințele sau puterea să câștigăm – dar vom avea acele cunoștințe și acea putere. Există forțe mai puternice decât urâțenia lumii, ultratehnologii care pot strivi Legile lui Murphy sau prostia umană ca pe o coajă de ou. Nu pot să ii arăt unui copil abuzat dovezi că există forțe puternice care lucrează pentru binele lumii, forțe cărora le pasă. Dar nouă ne pasă, si lucrăm ca să cream acea putere. Și, câtă vreme acest lucru ramane valabil, mai există speranță.

Nu există nici un rău pe care trebuie să-l accept pentru că „nu pot sa fac nimic împotriva lui”. Nu exista nici un copil abuzat, nici un țăran oprimat, nici un cerșetor care moare de foame, nici un copil dependent de droguri, nici un bolnav de cancer, pur și simplu nu exista nimeni pe care nu îl pot privi drept în ochi. Duc o viață nebruiata de „obișnuita vină de tip <> care te cuprinde datorita simplului fapt de a trai în civilizația occidentală”, pentru a-l parafraza pe Douglas Adams.(12). Este un sentiment plăcut. Tot ce trebuie să faci e să încerci să ajuți la salvarea lumii.

Solidaritatea
Sunt multe controverse și incertitudini în jurul întrebării „Ce se întâmplă cu omenirea după Singularitate?”. De fapt, intrebarea este prea puțin cuprinzatoare. Nici nu putem pune de acord care sunt bazele dezbaterii. Eu am atins un punct în care, din cauza Paradoxului lui Fermi (13), nu pot să mă gândesc la nici un final al ciclului vieții unei specii inteligente, chiar daca este o Trancendență absolută sau un eșec al Singularității, reprezentat in mintea noastra cu un cer gol. Totuși, în viziunea mea, cea mai bună șansă a omenirii de a supraviețui este crearea Singularității cât de repede posibil. (14)

Probabil, cel mai puternic motiv pentru mine este convingerea că a crea o inteligență superioară celei umane pare o etapă naturală în ciclul de viață a oricărei specii inteligente. Dacă omenirea supraviețuiește, să zicem, încă vreo câteva mii de ani, mai devreme sau mai târziu cineva va începe să se joace cu neurohacking-ul sau să creeze o IA sau ceva de genul ăsta, indiferent ce sisteme de siguranță există. Într-un milion de ani chiar evoluția ar produce o superinteligență. Și, într-un final, dupa câteva sute de miliarde de ani, Universul va deveni de nelocuit în absența unei intervenții inteligente. Specia noastră pur și simplu nu are opțiunea de a continua la nesfârșit cu minți de nivelul celei umane.Dacă ar fi fost posibil, o specie anterioară s-ar fi dezvoltat și ar fi umplut Universul, înclusiv Pământul. Ceva misterios se întâmplă, și se întâmplă tuturor, chiar dacă pare posibil ca unele rase să fi încercat să evite acest lucru cu mai multă voință, cooperare și disciplină decât ar putea omenirea să adune vreodată.

Pe de altă parte, pot să mă gândesc la tot felul de accidente nefericite care se pot întâmpla unei rase tinere și inteligente, razboiul microscopic (nanowar) fiind unul dintre ele cu probabilitate destul de ridicata. Mai devreme sau mai târziu, cineva va crea fie o super-armă, fie o superinteligență. Nu putem evita aceasta tendinta. Nu putem decât să alegem care va fi prima – și să sperăm ca măcar superinteligența va avea conștiință; sperăm sa putem conta pe ea ca să nu distrugă nimic orbește. Acesta este ratiunea datorita careia un Singularitarian supravietuieste.

Chiar dacă ar fi posibil să amânăm problema încă o generație, ce folos? Amânarea n-ar schimba alegerile fundamentale cu care se confruntă specia umană și ar condamna mulți indivizi la o moarte de bătrânețe. Toți cei patru bunici ai mei trăiesc și mi-ar plăcea să rămână așa până la Apoteoză. Pe lângă asta, instrumentele coercitive care ar duce la întârzieri semnificative ar putea să afecteze negativ rezultatul final – de exemplu, dând posibilitatea ca tehnologiile cheie sa fie dezvoltate în secret, probabil de unele state sau de catre teroriști.

Chiar dacă, cumva, am ști cu siguranță că orice superinteligență ar extermina intreaga omenire – inclusiv pe mine și pe ceilalți Singularitarieni, această „Singularitate-Shiva” ar putea fi, totuși, un țel pe care să-l împărtășim cu totii. Să mori creînd ceva mai bun mi se pare cu mult mai puțin inutil decât să mori de bătrânețe sau într-un nano-război. Cât privește posibilitățile atractive, aceasta este cu mult mai puțin atractivă decât Apoteoza, dar uneori să alegi cea mai bună variantă disponibilă nu înseamnă că vreuna dintre variante este mai bună. Gândește-te la posibilitatea că există o lume mult mai bună, dar că ne este complet interzisă. Indiferent cât de neplăcută este această posibilitate, odată ce te-ai confruntat cu ea și te-ai gândit deschis la ceea ce reprezinta, Singularitatea va pierde o mare parte din „puterea de a înspăimânta” și vei deveni un futurist mult mai încrezător.

Inteligența
Instrumentele de realizare a Transcendenței: minți jupiteriene, tehnologia spatiu-timp, Puteri, inteligențe cu putere de procesare de quinitlioane sau knutilioane de ori mai mare decât cele umane – sunt o parte importanta dintre motivele pentru care apreciem Singularitatea. Pentru mine, esența Singularității este surprinsă în explicația veche a lui Vernor Vinge, paragraful în care am auzit prima dată cuvântul Singularitate:
„Aici am încercat o extrapolare directă a tehnologiei și m-am pomenit ca merg spre un abis. Este o problemă cu care ne confruntăm de fiecare dată când luăm în considerare crearea unor inteligențe mai puternice decât a noastra. Când se va întampla aceasta, istoria umană va fi întâlnit un fel de singularitate – un loc unde extrapolarea cedează și trebuie aplicate modele noi – iar realitatea va depasi pragul nostru de întelegere”
— Vernor Vinge, True Names and Other Dangers, p. 47

Aceasta este formularea Singularității cunoscută sub numele de Orizont de Așteptare. Priviți în urmă, în istoria Pământului. Ar fi putut un câine să înțeleagă o maimuță? O maimuță – un Neanderthal? Un Neanderthal – un Cro Magnon? Ar fi putut un vânător-culegător să îl prezică pe Socrate? Ar fi putut Socrate să prezică anii 1800? Anii 1800 – anii 1900?Ar fi putut oricare dintre ei să prezică Singularitatea așa cum o vedem noi, aducand in fata minți jupiteriene și tot tacâmul? Și ce ne face să credem cănoi am nimerit-o?

Pentru mine, inteligența este esența moralității, pentru că inteligența este esența deciziei, pentru că inteligența este esența gândirii. Există zeci de moduri în care aș putea să fac ca aceasta afirmație destul de vagă să devina mai clară, dar toate ar rata esențialul. Pur și simplu numai discutând pe tema că un Neanderthal n-ar fi putut înțelege, admitem suvernitatea inteligenței – în practică, oricare ar fi bazele filosofice. De fiecare dată când folosim un argument împotriva suveranității inteligenței, admitem că argumentul nostru ar fi fost greșit în orice moment anterior din istorie în care respectivul argument nu fusese inventat.

Dacă omenirea este pur și simplu o specie prea tânără pentru a înțelege fundamentele pe care ni se sprijina alegerile, atunci nu mai rămâne decat să apreciem inteligența la adevarata sa valoare. Sunt tentat să dau o definitie formala utilizand conexiuni reprezentative, dar asta nu va lamuri subiectul. Chiar si numai prin implicarea ei într-o discuție filosofica complexa, chiar și prin această frază admit că, practic, oricine din trecut, inclusiv eu-urile mele trecute, s-ar fi înșelat. De aceea, in cazul „Inteligentei Artificiale Prietenoase” accentul cade pe egalarea sau depășirea capacităților filosofice umane, si nu doar pe un anumit tip de altruism.

Cred că au mai rămas de descoperit multe argumente fundamentale. Un număr cel puțin egal cu cele pe care le-am descoperit deja. Știu că, dacă n-aș ști tot ce am învățat in ultimii 5 ani, inclusiv această propoziție, n-as fi putut sa afirm ceea ce afirm acum. Cred că mai am de învățat încă pe atât. Cred că există cel puțin un argument la fel de profund precum suveranitatea inteligenței pe care nu îl știu. Acesta este motivul fundamental pentru care sunt un Singularitarian.

A Fire Upon the Deep prezintă șocul viitorului, dar True Names aduce magia adâncă…

În sfârșit, acest principiu nu se aplică numai Puterilor sau trans-umanilor, ci chiar oamenilor. Intelegerea inteligenței trans-umane este legată de intelegerea inteligenței umane – încă nu am văzut ca una să poată fi luată in calcul fără cealaltă. Și intelegerea inteligenței umane, suveranitatea ei, este unul din principalele mecanisme de siguranță care împiedică Singularitarianismul să cadă în „banalitatea fanatismului”.

S-ar putea să fiu un fanatic, dar câtă vreme pot aprecia inteligența, nu voi fi un fanatic prost. Nu voi face nici una din greșelile asociate în general cu fanaticii proști; nu voi avea trăsăturile stereotipe ale fanatismului. Nu voi încerca să scuz gândirea încețoșată spunând că servește cauzei; prostia e prostie. Îmi voi păstra simțul umorului și capacitatea de a râde de mine însumi, pentru că pierderea abilității de a-ți pune întrebări în legătură cu tine și cu cauza duce la prostire. Câtă vreme expresia: „Ce prostie!” are prioritate logică asupra ideologiei, e mai greu să fii prost. (Nu o să spun că e imposibil să fii prost, pentru că ar fi o prostie. Nu voi ridica in slavi apartenența la orice fel de ideologie – Singularitarianism, logică, inteligență – deasupra inteligenței însăși.)

Desigur, nu este destul să faci un legămant cu inteligența. Trebuie să o susții prin abilitatea de a percepe inteligența și să poti să o deosebești de prostie. Această artă înaltă este subiectul unei alte pagini.

Dar a face acest legămant este, de asemenea important.

Independența
Independeța înseamnă să privești Singularitatea ca pe un țel personal. Dorința de a crea Singularitatea nu e dependentă de existența, asistența, permisiunea sau încurajarea altor Singularitarieni. Dacă toți Singularitarienii de pe planetă ar muri într-un accident de mașină, ultimul Singularitarian rămas și-ar continua efortutile personale în direcția Singularității.

Moștenirea intelectuală a Singularității vine din trans-umanism și extropianism, care au o urmă pronuntață de individualism și autoritarism explicit. Vorbind din punct de vedere istoric, majoritatea cauzelor umane tind să se organizeze în jurul surselor explicite de autoritate. Ar trebui să se subînțeleagă că nu trebuie sa se inteleaga ca eu, Vernor Vinge, Institutul pentru Singularitate sau altă instituție umană am avea vreo „autoritate” asupra Singularitarienilor – cu excepția celei acordate voluntar de alți Singularitarieni, desigur. Aceast aspect este implicit în moștenirea noastră trans-umanistă.

Dar ar trebui sa cautam dincolo de aceasta mostenire, sa privind prin prisma viselor noastre referitoare la superinteligență. Ce este autoritatea? Ce este o organizație? Poți să o guști, să o miroși, să o ții în mână? O organizație de o mie de oameni nu există decât ca o iluzie colectivă distribuită în o mie de minți. Și câtă vreme aceasta iluzie, acest set de presupuneri si adaptări, acest cod social cu un scop aparte poate fi cu siguranță util, el nu poate avea o adevărată forță morală.

Uneori, visul superinteligenței poate acoperi „visul umanitatii” – „viața așa cum o știm noi”, „felul de-a fi al lucrurilor”. Până la urmă, instinctele politice sunt reglate ca să maximizeze adaptarea la mediu a perechii vânător-culegător (de roade), nu să relizeze scopul declarat al lumii moderne. (15). Există o deosebire cognitivă între „lideri” și „adepți” pe care nu este bine să o lăsăm să pătrundă în mintea noastră.

Dispunem de un set întreg de adaptări cognitive reglate pe ideea unirii pentru o cauză comună și, cu puțin noroc, Singularitarienii pot decide să le ignore pe cele care i-ar putea stânjeni. In același mod se pot uni si Inteligentele Artificiale, deoarece agenții care îți împărtășesc scopurile pot fi utili in indeplinirea lor. Principiul Independenței afirmă că Singularitarienii sunt uniți prin „motivele ascunse împărtășite”.

Exista o deosebire subtilă cu privire la cele doua situatii. Iar aceasta deosebire prezinta mai multe ipostaze. Să spunem că avem doi Singularitarieni, Alice și Bob, pentru care e valabil Principiul Independenței. Alice are bani, Bob are un plan, Carol are abilitățile. Alice ii dă lui Bob un milion de dolari să își implementeze planul, și Bob o angajează pe Carol. E Alice patroana lui Bob? Ar trebui ca Bob să îi fie recunoscător lui Alice? Îl „ajută” alice pe Bob? Are Bob dreptul să ceară recunoștință și supunere de la Carol?

Nu. Toate acestea sunt antropomorfisme. Alice nu îl ajută pe Bob sau „cauza Singularitarianistă”, ea își urmează propriul țel in a declanșa Singularitatea. Acțiunile ei pot fi descrise la modul: „folosindu-l” pe Bob. Dar, la fel de bine, descrierea poate fi: „ajutându-l” pe Bob. Alice nu se află pe un nivel mai înalt deoarece nivelele reprezinta modalitatile umane de a face lucrurile sa se intample. La fel, dacă Bob o angajează pe Singularitariana Carol să scrie o AI, Carol nu e o „angajată”; îl folosește pe Bob pentru a putea să petreaca mai mult timp scriind algoritmii Inteligentei Artificiale și, astfel, urmându-și propriul ei obiectiv de a declanșa Singularitatea. Acest lucru se numeste egalitate – deși rămâne de văzut cât de bine va funționa în practică.

Ar trebui să vă avertizez că Principiul independenței poate reflecta filosofia personală mai mult deât celelalte Principii. Cred ca Independența se va putea dovedi un Principiu util, desi actualmente controversat. O potențialitate, mai degrabă, decât o realitate.

Non-suprimarea
Susțin puternic Inteligenta Artificiala, dar cred că dezvoltarea nanotehnologiei va duce inevitabil la un război la scară planetară in foarte scurt timp. Am vorbit despre necesitatea accelerării cercetărilor în domeniul Inteligentei Artificiale cu scopul de a devansa “deadline”-ul propus de catre nanotehnologie. (16). De ce nu mi-am făcut viața mai simplă încercând să amân momentul dezvoltării nanotehnologiei? De fapt, de ce am vorbit împotriva interzicerii sau reglementării nanotehnologiei?

Singularitarianismul s-a dezvoltat din anarho-capitalismul trans-umanist care, la randul lui, s-a dezvoltat din libertinismul din science fiction, dezvoltat si acesta din știință și tehnologie. Toți tindem să avem sentimente puternice în legătură cu încercările de îngrădire a dezvoltării tehnologiei. Dacă există vreun grup universal disprețuit de Nivelele de Șoc de la 1 la 4, aceia sunt Ludiții – oameni cu Nivelul de Șoc -2.
(Un Nivel de Șoc masoara stadiul la care poti privi conceptele high-tech fara sa fii impresionat, inspaimantat sau orbit de entuziasm si fara sa accesezi un nivel de soc mai mare. De exemplu, Nivelul de Soc 0 (SL0) este reprezentat de catre tehnologia moderna si lumea zilelor noastre. SL1 este realitatea virtuala sau economia bazata pe comert electronic, SL2 este reprezentat de calatoriile interstelare , nemurirea medicala sau ingineria genetica, SL3 este nanotehnologia sai o Inteligenta Artificiala echivalenta celei umane, iar SL4 este Singularitatea.)
Dacă acești oameni – cu reglementările lor, cu panica indusă prin mass-media, cu sabotajele lor ilegale, au reușit sa faca vreodată ceva, eu n-am auzit. (17). Dacă oamenii aceștia ar fi obținut ceea ce vroiau, automobilele ar fi fost interzise pentru a apăra locurile de muncă din industria șeilor, penicilina ar fi încă implicată în procese cu „Food and Drug Administration”, transplanturile de inimă ar fi fost considerate nenaturale și Frankensteiniene, Gutenberg ar fi fost ars pe rug… am fi fost, înca, în peșteri, întrebându-ne dacă pietrele sunt comestibile. (18). Dar moștenirea intelectuală nu este un argument. Atunci, de ce vorbim de Non-suprimare?

Logica din spatele Non-suprimării este parțial pragmatică, parțial Dilema Prizonierului (DP), parțial etică, și parțial grija de a nu scăpa un chibrit în fabrica de artificii.

Aspectul DP este, poate, cel mai ușor de înțeles; pentru fiecare persoană care iubește tehnologia A și urăște tehnologia B există, probabil, o persoană care urăște tehnologia A și iubește tehnologia B. (În loc de „iubește” citiți „crede că este de dorit” și în loc de „urăște” – „crede că va distruge lumea”.) Am văzut argumente care sustin faptul că nanotehnologia este cheia viitorului, pe când o Inteligență Artificială trans-umană ar extermina inevitabil omenirea. Se castiga mult mai mult din unitate decat din comunitatea trans-umanista. Dacă pornim o ceartă, vom fi atât de ocupați încercând să ne sabotăm unii pe alții încât, la final, va trebui, pur și simplu, să lasăm problema în mâinile unei organizații cu mai putină viziune, formată din oameni lipsiti de viziune strategică si care nu se pot implica în bătălii fără sens.

Gândind pragmatic, desigur, încercarea de a împiedica dezvoltarea unei tehnologii periculoase face mai mult rău. Încetinirea sau interzicerea nanotehnologiei în democrațiile industriale vestice va avea ca rezultat pur și simplu dezvoltarea lor de către alte state interesate sau de grupari teroriste, după cum s-a discutat înNanotechnology and the World System. La fel cum si refuzul de a dezvolta arme nucleare în Al doilea Război Mondial i-ar fi putut oferi victoria lui Hitler sau, mai târziu, lui Stalin. (Remarcați că sunt pentru împiedicarea proliferării tehnologiilor periculoase, ca în cazul armelor nucleare; dar să împiedici dezvoltarea lor este sinucidere curată, ca în cazul armelor nucleare.) Când ultratehnologia va fi scoasă în afara legii, doar cei din afara legii vor avea ultratehnologie.

Este ca o lamă neascutiță la care unul din taisuri nu va putea fi folosit; acesta este principiul din spatele afirmației „Nu scăpa un chibrit în fabrica de artificii”. Tehnofobia se răspândește. Convingerea unui membru al Congresului American de necesitatea de a reglementa nanotehnologia ar pune bazele pentru reglementarea Inteligentei Artificiale, neurohacking-ului, interfețelor neuronale și tuturor celorlaltor ultratehnologii; de fapt, faceti o simplă investigație asupra subiectului în cărți sau pe Internet, si veti ajunge la aceeași concluzie. Militați pentru Legea pentru Securitate Nanotehnologica și veți obține o Carta Generala de Reglementare a Ultratehnologiilor. Șocul viitorului – sau, mai exact, panica viitorului – este cel mai mare pericol. Pentru noi toți. Suprimarea poate doar să o facă mai puternică.

Principiul Etic este si el implicat. Etica își are rădăcinile în incertitudine. „Scopul nu scuză mijloacele” pentru că, atât de des în existența umană, scopul nu s-a materializat sau s-a dovedit inutil pentru prezumtivii beneficiari. Pentru a fi siguri ca viitorul poate fi gestionat in siguranta, trebuie sa evitam sa avem incredere in entitățile umane inteligente, stapanite de emoții evoluate. Nu îmi închipui că ințeleg ce se întâmplă cu adevărat, sau că știu mai mult decât transumaniștii care dezvoltă tehnologii „periculoase”. Să încerci să gestionezi viitorul prin suprimarea tehnologiilor este ca și cum ai încerca să conduci o mașină dupa ce i-ai demontat rotile. De unde să știu dacă nu cumva nanotehnologia este necesară pentru crearea diferitelor elemente ale Inteligentei Artificiale?

Principiul Nonsuprimării este parte din ceea ce face comunitatea Singularitariană să funcționeze; nu putem ajunge nicăieri dacă toți încercăm să sabotăm eforturile celorlați. (19).

Desigur, este normal să te opui direct oricarui proiect sau organizație care fac o mișcare plănuită împotriva ta sau a tehnologiei tale. Ca și în cazul anarho-capitalismului, nu este chiar „non-suprimare”, este ne-inițierea suprimării. Din nou, la fel ca în cazul anarho-capitalismului, „suprimarea”, prin definiție, necesită constrângere. Oricum, o încercare de a zdrobi competiția în loc de a o converti. (20).

________________________________________

Note de subsol:
• 1: Dar nu prin susținerea unei Singularități personale; „Singularitatea” din „Singularitarian” este globală.
• 2: Orice incercare de a scrie un set de Principii, un manifest sau orice altceva de genul asta, va include aproape sigur atat modelarea meme-ului cât și descrierea lui. Eu am ales să recunosc asta în mod deschis.
• 3:
• 4: „destul de mult”, în cazul meu, a însemnat câțiva ani.
• 5: Nu poate fi definitoriu pentru că nu este, probabil, un fenomen care să fie împărtășit și de Inteligenta Artificiala Singularitariana.
• 6: Originea termenului „Transcendență”, în domeniul Singularității, este “A Fire Upon the Deep” – de Vernor Vinge. În carte, Transcend era o regiune a galaxiei, de unde expresia „importată din Transcend”
• 7: Expresia cu „aiurelile” este din Cosma Shalizi.
• 8: Adică presupune că forțele care acționează reprezinta echilibrul (equilibria – vezi textul lui John Smart din acest dosar) perfect care apare intr-un sistem format din indivizi care interactioneaza si ale caror talente sunt distribuite de-a lungul unei curbe gaussiene.
• 9: Nu că aș avea ceva împotriva câtorva mii de ani de hedonism, dar ar deveni plictisitor la un moment dat. Nu țin neapărat să se întămple.
• 10: De fapt la asta sper – un scop inteligent și cu însemnătate pentru existență.
• 11: Un mit cultural. Nu este posibila nici o adaptare la astfel de situatii date, zdrobitoare de minți.
• 12: Citatul original: „obișnuita vină de tip <> care te cuprinde datorita simplului fapt de a trai în secolul 20„. Douglas Adams, “The Long Dark Tea-Time of the Soul”.
• 13: Cunoscut și ca Marele paradox al Filtrului. În general, exprimat de propozitia: „Dacă există extratereștri, unde sunt?”
• 14: Nu că asta ar fi principala mea grijă, dar îmi place să știu cărui grup cu interese speciale mă opun. Și va fi principala grijă a altor Singularitarieni. De asemenea, îmi pasă.
• 15: Vezi “Observer-biased beliefs evolve in deceptive social organisms” in Friendly AI.
• 16: După cum a spus Mitchell Porter odată: „Cursa dintre super-arme și superinteligență.”
• 17: Dar sa nu mă întrebați despre esecuri, dacă nu aveți o lună la dispoziție.
• 18: O frază pe care am furat-o din benzile desenate cu Dilbert.
• 19: Totuși, mă pot gândi la două circumstanțe în care aș renunța la Nonsuprimare: (1) tehnologii malefice și (2) tehnologii periculoase la o scală galactică. Regula de bază este că, atunci când consecințele creării unei gropi cu șerpi sunt de aceeași mărime ca cele ale „tehnologie periculoase”, atunci nu începe să tragi. Și în ultratehnologie, riscurile sunt cam aceleași, adică distrugerea rasei umane. As putea să cred că nanotehnologia are magnitudinea riscului mai mare ca cea a sporirii inteligenței, dar asta nu înseamnă că pot să sabotez nanotehnologia în favoarea IA, deoarece altcineva crede că magnitudinea riscului IA este mai mare decat în cazul nanotehnologiei. Situația e simetrică.

Dar daca cred că dacă tipul tău de IA este posibil să duca la crearea unei Perversiuni care să inghită galaxii, iar tu crezi că tipul meu de IA va fi la fel de nebună, și ne petrecem tot timpul certându-ne unul cu celalalt, rezultatul final va fi un Pământ distrus de nano-arme – si atunci e în regulă din ambele puncte de vedere, pentru că măcar galaxia este în siguranță. Nu cred că acest argument este adevărat – dacă ar fi fost posibil să distrugi Universul dintr-o greșeală, ar fi facut-o o altă rasă până acum. Dar dacă premisele ar fi fost adevărate, acțiunile ar fi fost valide.

Nu-mi place să vorbesc despre tehnologii nefaste. Insă, dacă cineva ar încerca să dezvolte o tehnologie gen Regina Îngerilor, n-aș avea nici o remușcare dacă aș încerca să o opresc. (Dacă ai citit cartea, știi despre ce vorbesc.) Pornind de la exemplul cu Regina Îngerilor, as spune că o tehnologie „nefastă” este imună la multe dintre argumentele de mai sus, pentru că dacă Irakul ar obține-o în 2015 ar fi mai bine decât dacă ar obține-o SUA în 2010. Și mai e și problema mizelor; mulți oameni ar vedea distrugerea unui oraș sau chiar anihilarea totală a rasei umane ca fiind mai puțin negativă decât folosirea acelei tehnologii pe o singură persoană. Suprimarea tehnologiilor nefaste nu prea poate să ducă la un colaps as spiritului de comunitate, având în vedere că e puțin probabil să cooperăm cu cineva cu o minte destul de perversă pentru a dezvolta intenționat o asemenea tehnologie.
În practică, nu mă aștept ca Nonsuprimarea să aibă nevoie de excepții.
• 20: Să încerci să educi cercetătorii care studiază tehnologiile periculoase asupra pericolelor – chiar să încerci să ii convingi să își schimbe domeniul de activitate – nu intră în categoria suprimare. Pur și simplu, împărtășești informații cu ei; dacă ei hotărăsc să își redistribuie efortul pentru cauza ta – evident, fără să încerci să îi forțezi, atunci nu a avut loc o constrângere. La fel, să acționezi pe la spatele unui cercetător și să discuți cu fundația care oferă fondurile, încercând să opreacă acordarea bursei, este foarte discutabil, în cazul în care cercetătorul nu este invitat la discuții pentru a se asigua o dezbatere corectă.

Ar trebui să te îngrijorezi în privința statelor cu mai multe fete și a teroriștilor înainte de a încerca să convingi pe cineva să decelereze o tehnologie. Nu le-am spus celor de la Zyvex să o ia mai încet pentru că acum nu sunt nici pe departe singurii din domeniu, și as prefera să obțină ei rezultatul decât altcineva.

Traducere: Ioana Stanescu (Jen)

Autor:

Acest autor a publicat 36 articole în baza noastră de date.

comentarii (1)

  1. Mă interesează mult direcția inteligentă a Universității Singularității. Doresc să fiu membru al instituției date. Cum pot deveni discipol?
    Cu stimă,
    Marin Mazur

Lăsați un răspuns