Diferencies ente revisiones de «Singularidá teunolóxica»

Contenido eliminado Contenido añadido
m correiciones
m Preferencies llingüístiques
Llinia 1:
La '''singularidá tecnolóxicateunolóxica''' ye'l advenimiento hipotéticu d'intelixencia artificial xeneral (tamién conocida como "[[IA fuerte]]", del inglés ''strong AI''). La singularidá tecnolóxicateunolóxica implica qu'un equipu de cómputu, rede informática, o un robot podríen ser capaces d'autu-ameyorase recursivamente, o nel diseñu y construcción d'ordenadores o robots meyores qu'él mesmu. Dizse que les repeticiones d'esti ciclu probablemente daríen llugar a un efeutu fora de control -una esplosión d'intelixencia<ref name="Singularity, Intelligence Explosion 2010">Chalmers, David. [https://web.archive.org/web/20120421121903/http://singinst.org/blogue/2010/04/08/david-chalmers-on-singularity-intelligence-explosion/ «Singularity, Intelligence Explosion.» 8 d'abril de 2010.] Singularity Institute for Artificial Intelligence.</ref><ref>[http://hplusmagazine.com/2011/03/07/why-an-intelligence-explosion-is-probable/ Editor's Blogue Why an Intelligence Explosion is Probable], by Richard Loosemore and Ben Goertzel. March 7, 2011; hplusmagazine.</ref>, onde les máquines intelixentes podríen diseñar xeneraciones de máquines socesivamente cada vez más potentes, la creación d'intelixencia bien cimera al control y la capacidá intelectual humana.<ref>{{cite book | title=The Techno-human Shell-A Jump in the Evolutionary Gap | publisher=Sunbury Press | author=Carvalko, Joseph | year=2012 | isbn=978-1620061657}}</ref>
 
La singularidá tecnolóxicateunolóxica va causar, según [[Albert Cortina]] y [[Miquel-Ángel Ferrucha]], cambeos sociales inimaxinables, imposibles d'entender o de predicir por cualesquier humanu. Nesa fase de la evolución producirá la fusión ente tecnoloxíateunoloxía y tamién intelixencia humana, onde la tecnoloxíateunoloxía va apoderar los métodos de la bioloxía hasta dar llugar a una era en que se va imponer la intelixencia non biolóxica de los posthumanos, que se va espandir pol universu. <ref>{{cita llibru|apellido=Cortina y Ferrucha|nombre=Albert y Miquel-Àngel|enlaceautor=|títulu=¿Humanos o Posthumanos?, singularidá tecnolóxicateunolóxica y meyoramientu humanu|url=http://www.fragmenta.cat/%C3%ADndice-y-fragmentu_358616.pdf|fechaacceso=|añu=2015|editorial=|isbn=|editor=|ubicación=|página=|idioma=|capítulu=Capítulu 1 de ¿Humanos o posthumanos? Singularidá tecnolóxicateunolóxica y meyoramientu humanu.}}</ref>
 
== Orixe ==
El primer usu del términu «singularidá» foi en 1958 pol matemáticu y físicu húngaru [[John von Neumann]]. Esi añu nuna conversación con von Neumann, [[Stanislaw Ulam]] describió "el cada vez más rápidu progresu tecnolóxicuteunolóxicu y los cambeos na manera de la vida humana, lo que da l'apariencia de que s'avera dalguna singularidá esencial na hestoria de la raza humana más allá de los sos propios asuntos tales como los conocemos, nun puede siguir".<ref name="mathematical" />
 
{{quote|Una conversación centrar nes meyores cada vez más aceleraos de la tecnoloxíateunoloxía y los cambeos na manera de la vida humana, lo que da l'apariencia de que s'avera una singularidá esencial na hestoria más allá de los asuntos humanos, y tal como los conocemos, nun van poder siguir.<ref name=mathematical/>}}
 
[[Ray Kurzweil]] citó l'usu de von Neumann del términu nun prólogu de von Neumann del clásicu ''The Computer and the Brain''. Años más tarde, en 1965, I.J. Good escribió primeru sobre una "esplosión d'intelixencia", que suxure que si les máquines pudieren superar llixeramente l'intelectu humanu, podríen ameyorar los sos propios diseños en formes imprevisibles pa los sos diseñadores, y polo tanto aumentar [[Recursión|recursivamente]] a sigo mesmos faciéndoles muncho más intelixentes. La primera d'eses meyores puede ser pequena, pero a midida que la máquina vuélvese más intelixente, podría dar llugar a una cascada d'autu-ameyora y un aumentu repentín de la superinteligencia (o una singularidá).
 
Pero nun ye hasta 1983 onde'l términu popularizar pol matemáticu y escritor [[Vernor Vinge]], quien sostien que tanto la [[intelixencia artificial]], la [[Perfeccionamiento humanu|meyora biolóxica humana]], o los [[Interfaz Celebru Computadora|interfaces celebru-ordenador]] podríen ser les posibles causes de la singularidá. Popularizó descomanadamente la noción d'una esplosión d'intelixencia de Good nuna serie d'escritos, encetando primero la tema de forma impresa na edición de xineru de 1983 de la revista Omni. Nesti artículu d'opinión, Vinge paez ser el primeru n'utilizar el términu "singularidá" de tal manera que taba arreyáu específicamente a la creación de máquines intelixentes,<ref name="technological" /><ref name="std" />por escritu:{{quote|Llueu vamos crear intelixencies cimeres a la nuesa. Cuando esto asoceda, la hestoria humana algamaría una especie de singularidá, una transición intelectual tan impenetrable como l'espaciu-tiempu anoyáu nel centru d'un furacu negru, y el mundu va pasar muncho más allá de la nuesa comprensión. Esta singularidá, creo, que yá escuerren una serie d'escritores de ciencia ficción. Esto fai que la extrapolación realista a un futuru interestelar imposible. Pa escribir una hestoria ambientada más d'un sieglu, poro, precísase una guerra nuclear nel mediu ... por que'l mundu siga siendo intelixible.}}
 
== Historia ==
Llinia 17:
=== Los sos empiezos Unu de les primeres persones qu'afirmara la esistencia d'una singularidá foi [[Nicolas de Condorcet]], un francés matemáticu, filósofu y revolucionariu del sieglu 18. Nel so Bocetu pa un cuadru históricu del progresu de la mente humana de 1794 (del inglés, Sketch for a Historical Picture of the Progress of the Human Mind), Condorcet afirma,{{quote|La naturaleza nun estableció un plazu pa la perfección de les facultaes humanes; que la perfectibilidad del home ye verdaderamente indefinida; y que'l progresu d'esta perfectibilidad, d'equí p'arriba ye independiente de cualesquier poder que pudiera deseyar detenela, nun tien otra llende que la duración del mundu nos que la naturaleza echónos. Esti progresu va variar ensin dulda na velocidá, pero nunca va ser invertíu'l tiempu nel que la tierra ocupa'l so llugar actual nel sistema del universu, y siempres y cuando les lleis xenerales d'esti sistema produzan nin un cataclismu xeneral nin cambeos tales como la voluntá de quitar a la humanidá de les sos facultaes actuales y los sos recursos actuales.""<ref>{{cite web|url=http://2010.singularitysummit.com.au/about-us/mission/|title=Mission|work=Singularity Summit Australia - Future of Science and Technology}}</ref>}}Años más tarde, l'editor R. Thornton<ref name="The Expounder of Primitive Christianity" /><ref>Adams, H. (1909) "The rule of phase applied to history." In H. Adams & B. Adams (1920), ''The Degradation of the Democratic Dogma.'' New York: Macmillan, 267–311.</ref> escribió sobre la recién invención d'una [[calculadora mecánica]] de cuatro funciones:{{quote| ... Esti tipu de máquines, polos que l'estudiosu puede, xirando un rabil, moler a cabu la solución d'un problema ensin el cansanciu d'aplicación mental, facer pola so introducción nes escueles, faer daños incalculables. Pero, ¿quién sabe que tales máquines cuando sían trayíes a una mayor perfección, nun pueden pensar nun plan pa remediar tolos sos defectos y depués moler les idees más allá del algame de la mente mortal?}}
 
En 1863, l'escritor [[Samuel Butler]] escribió “Darwin ente les máquines” (del inglés, Darwin Among the Machines), que s'incorporó más tarde na so famosa novela “Erewhon”. Señaló la rápida evolución de la tecnoloxíateunoloxía y comparar cola evolución de la vida, faciendo usu del términu singularidá ensin dase cuenta. L'escribió:
{{quote| Hai que cavilgar sobre la estraordinaria meyora que les máquines fixeron mientres los últimos cien años, teniendo en cuenta la lentitú cola que los reinos animal y vexetal tán avanzando. Les máquines más altamente entamada son criatures non tantu d'ayeri, a partir de los últimos cinco minutos, por dicir, en comparanza col tiempu pasáu. Supongamos pol bien del argumentu de que los seres conscientes esistieron dende fai dellos venti millones d'años: ver lo les máquines fixeron nos últimos mil años. ¿Nun puede ser que'l mundu dure veinte millones años más? Si ye asina, ¿en qué nun se convertirán nel fin? ... Nun podemos calcular sobre cualquier meyora correspondiente a los poderes intelectuales o físicos del home, que va ser una compensación en contra de la midida de mayor desenvolvimientu que paez tar acutada pa les máquines.}}
En 1909, l'historiador [[Henry Adams]] escribió un ensayu, “La Riegla de la Fase Aplicada a la Hestoria” (del inglés, The Rule of Phase Applied to History),<ref>Adams (1909), p.309</ref> nel que desenvolvió una "teoría física de la hestoria" por aciu l'aplicación de la llei de los cuadraos inversos a períodos históricos, proponiendo una "Llei de l'Aceleración del Pensamientu ". Adams interpreta la hestoria como un procesu d'avanzar escontra un "equilibriu", y especuló qu'esti procesu sería "llevar el pensamientu hasta la llende de les sos posibilidaes nel añu 1921. ¡Ye bien posible!", Y amestó que "les consecuencies pueden ser tan sorprendente como'l cambéu d'agua a vapor, del vierme de la camparina, de la radio a los electrones."<ref>{{cite web|url=http://www.accelerationwatch.com/history_brief.html|title=A Brief History of Intellectual Discussion of Accelerating Change|publisher=Accelerationwatch.com|accessdate=17 d'agostu de 2013}}</ref> El futurólogu John Smart llamó a Adams "Primer Teóricu de la Tierra sobre la Singularidá".<ref name="oxfordjournals" />
 
Esti términu puede rellacionar tamién col matemáticu [[Alan Turing]], quien en 1951 faló de máquines superando a los seres humanos intelectualmente:<ref name="google4" />{{quote| una vegada qu'empezó'l métodu de pensamientu de la máquina, que nun tomaría enforma tiempu pa superar a los nuesos débiles poderes. ... En dalgún momentu, polo tanto tendríamos qu'esperar que les máquines tomen el control, na forma en que se menta en ''[[Erewhon]]'' de [[Samuel Butler (novelist)|Samuel Butler]]'s.}}
 
=== Al traviés de los años ===
En 1985, [[Ray Solomonoff]] introdució la noción de "puntu infinitu"<ref name="When will computer hardware match the human brain?" /> na escala del tiempu de la intelixencia artificial, analizando la magnitú del "shock del futuru", que "podemos esperar de la nuesa IA espandida na comunidá científica", y sobre los efectos sociales. Les estimaciones fueron feches "pa cuando asocederíen estos finxos, siguíos por delles suxerencies pal usu más eficaz de la crecedera tecnolóxicateunolóxica desaxeradamente rápido que s'espera".
 
Nel so llibru de 1988 “Mind Children”, el científicu de la computación y futurista Hans Moravec xeneraliza la Llei de Moore pa faer predicciones sobre'l futuru de la vida artificial. Moravec esboza una llinia de tiempu y un escenariu nesti sentíu<ref name="The Age of Robots" /><ref name="Robot Predictions Evolution" />nel que los robots van evolucionar nuna nueva serie d'especies artificiales, al alredor del 2030 al 2040<ref name="google5" /> En “Robot: Mere Machine to Transcendent Mind”, publicáu en 1998, Moravec considera amás les implicaciones de la evolución de la [[Intelixencia artificial|intelixencia del robot]], la xeneralización de la llei de Moore a les tecnoloxíes precediendo'l [[circuitu integráu]], y especulando sobre una venida "fueu en mente" de superinteligencia de rápida espansión, similar a les idees de Vinge.
 
Un artículu de 1993 por Vinge, "The Coming Technological Singularity: How to Survive in the Post-Human Yera",<ref name="vinge1993" /> estendióse llargamente n'Internet y ayudó a popularizar la idea.<ref>83</ref> Esti artículu contién la declaración citada de cutiu, "Dientro de treinta años, vamos disponer de los medios tecnolóxicosteunolóxicos pa crear intelixencia sobrehumana. Poco dempués, la era humana va terminase." Vinge refina la so estimación de les escales temporales necesaries, y amestó: "Sosprenderíame si esti eventu produz antes de 2005 o dempués de 2030."
 
El llibru de divulgación científica de [[Damien Broderick]] “''The Spike''” (1997) foi'l primeru pa investigar la singularidá tecnolóxicateunolóxica en detalle.
 
En 2005, Ray Kurzweil publicó “[[La Singularidá ta cerca|The singularity in near]]”, que traxo la idea de la singularidá de los medios de comunicación populares, tantu al traviés de l'accesibilidá del llibru y al traviés d'una campaña de publicidá qu'incluyía una apaición en “[[The Daily Show with Jon Stewart|The Daily Show con Jon Stewart]]”.<ref name="Hanson" /> El llibru ximielga intensu discutiniu, en parte por cuenta de que les predicciones utópiques de Kurzweil oldeen fuertemente con otres visiones, más escures de les posibilidaes de la singularidá. Kurzweil, les sos teoríes, y les discutinios que lu arrodien fueron oxetu del documental de Barry Ptolemy “''Transcendent Man''”.
 
En 2007, [[Eliezer Yudkowsky]] suxurió que munches de les variaes definiciones que s'asignaron a la "singularidá" son incompatibles ente sigo en llugar de sofitase mutuamente.<ref name="yudkowsky.net" />Por casu, Kurzweil extrapola actuales trayectories tecnolóxiquesteunolóxiques más allá de la llegada del autu-ameyora de la IA o intelixencia sobrehumana, que Yudkowsky argumenta que representa una tensión colo qu'I.J. Good propón; discontinúa na intelixencia y la tesis de Vinge de imprevisibilidad.
 
En 2008, [[Robin Hanson]] (teniendo como "singularidá" pa referise a un fuerte aumentu nel esponente de la crecedera económica) numberó les [[Revolución Industrial|revoluciones agrícola ya industrial]] como singularidaes pasaes. La extrapolación d'estos sucesos pasaos; Hanson propón que la próxima singularidá económica tendría d'aumentar la crecedera económica d'ente 60 y 250 vegaes. Una innovación que dexó la sustitución virtual del tol trabayu humanu y que podría desencadenar esti eventu.<ref name="singularityu" />
 
En 2009, Kurzweil y el fundador de [[X-Prize]], [[Peter Diamandis]] anunciaron la creación de la [[Universidá de la Singularidá]], que la so misión declarada ye "educar, inspirar y empoderar a los líderes p'aplicar tecnoloxíes esponenciales pa faer frente a los grandes retos de la humanidá."<ref name="sens" /> Financiada por [[Google]], [[Autodesk]], ePlanet Ventures, y un grupu de líderes de la industria de tecnoloxíateunoloxía de la Universidá de la Singularidá, basar nel [[Centru d'Investigación Ames|Ames Research Center]] de la [[NASA]] en [[Mountain View]], [[California]]. La organización ensin fines d'arriquecimientu executa un programa añal de posgrado de diez semana mientres el branu del hemisferiu norte que cubre diez tecnología distintos y pistes aliaes, y una serie de programes executivos en tol añu.
 
A tráves de los años siguió falándose de la mesma, en 2010, [[Aubrey de Grey]] aplica'l términu "''Methuselarity''"<ref name="Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality" />hasta'l puntu nel que la tecnoloxíateunoloxía médica meyora tan rápido que la [[esperanza de vida|vida humana]] útil esperada aumenta por más d'un añu per añu. En " Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality"<ref name="time" />(2010), Robert Geraci ufierta una cuenta del desenvolvimientu de "ciber - teoloxía", inspirada nos estudios de la Singularidá.
 
L'ensayista y filósofu [[Eric Sadin]], nel 2017, fala nel so testu sobre un acoplamientu humanu-máquina, describiéndolo como daqué inéditu ente organismos fisiolóxicos y códigos dixitales. Esti acoplamientu va texéndose y tensionando inestablemente ente aptitúes y misiones otorgaes per un sitiu a los humanos, y por otru a les máquines. Sadin diznos que se caracteriza, hasta agora y por un tiempu, por un equilibriu inciertu y nebuloso, basáu pola distribución binaria y emblemática na frecuentación de tolos fluxos de [[Internet]], operaos la gran mayoría por [[robot]]s electrónicos autónomos.<ref>{{cita llibru|apellíos=Sadin|nome=Eric|enlaceautor=|títulu=La Humanidá Aumentada. L'alministración dixital del mundu|url=|fechaacceso=|añu=2017|editorial=Editorial Caxa Negra|isbn=|editor=|ubicación=|páxina=31-32|idioma=|capítulu=Introducción: La emerxencia d'una cognición artificial superior}}</ref>
Llinia 54:
# La ciencia biolóxica puede atopar maneres d'ameyorar l'intelectu humanu natural.
 
Vinge sigue prediciendo que les intelixencies sobrehumanes van poder ameyorar les sos propies mentes más rápidu qu'el so ceadores humanos. "Cuando les unidaes de mayor intelixencia humana progresen" Vinge escribe, "que'l progresu va ser muncho más rápido." Él prediz qu'esti ciclu de retroalimentación de la intelixencia autu-ameyorada va faer grandes cantidaes de meyores tecnolóxiquesteunolóxiques dientro d'un curtiu períodu de tiempu, y afirma que la creación de la intelixencia sobrehumana representa una rotura na capacidá de los humanos pa modelar el so futuru. El so argumentu yera qu'el autores nun pueden escribir personaxes realistes que superen l'intelectu humanu, como los pensamientos d'un intelectu tales seríen más allá de la capacidá de los humanos pa espresar. Vinge noma esti eventu "la Singularidá".
 
Na ''Cume de la Singularidá'' del 2012, Stuart Armstrong fixo un estudiu sobre les predicciones de la [[IA Fuerte|intelixencia artificial xeneral]] (AGI) de los espertos y atopóse una amplia gama de feches prediches, con un valor mediu de 2040. Aldericando'l nivel d'incertidume nes estimaciones de AGI, dixo Armstrong en 2012, «Nun ye dafechu formalizada, pero la mio estimación actual del 80 % ye daqué según a partir de cinco a 100 años».<ref name="armstrong2012" />
 
== Manifestaciones ==
Munchu autores definieron que la singularidá tecnolóxicateunolóxica puede llegase a manifestar de distintes maneres: a partir de la [[intelixencia artificial]], la [[superinteligencia]] o la singularidá de la Non-IA.
 
=== Esplosión d'intelixencia ===
La [[IA fuerte]] podría llegar a provocar, tal como lo espresa [[I. J. Good|Irving John Good]], una esplosión d'intelixencia”.<ref>{{cita llibru|apellíos=Good|nome=I.J|enlaceautor=|títulu=Speculations Concerning the First Ultraintelligent Machine|url=|fechaacceso=|añu=1950|editorial=|isbn=|editor=|ubicación=|página=|idioma=|capítulu=Advances in Computers, vol. 6.}}</ref> A pesar de que'l progresu tecnolóxicuteunolóxicu aceleróse, viose llindáu pola intelixencia básica del celebru humanu, que nun tuvo, según [[Paul R. Ehrlich]], un cambéu significativu mientres los últimos milenios.<ref name="Paul Ehrlich June 2008" /> Por aciu el creciente poder de los ordenadores y otres tecnoloxíes, podría ser posible construyir una máquina más intelixente que la humanidá.<ref>{{cita llibru|apellíos=Shajahan|nome=S|enlaceautor=|títulu=Management Information Systems|url=|fechaacceso=|añu=2007|editorial=New Age International|isbn=|editor=|ubicación=|página=|idioma=|capítulu=}}</ref> Lo siguiente consiste nuna intelixencia sobrehumana –inventada yá sía al traviés de l'amplificación de la intelixencia humana o al traviés de la intelixencia artificial– capaz d'apurrir un mayor resolvimientu de problemes y habilidaes maxinos, y de diseñar una máquina meyor, más intelixente (autu-ameyora recursiva). Estes iteraciones d'autu-ameyora recursiva podríen acelerar, dexando potencialmente un enorme cambéu cualitativu primero que les llendes cimeres impuestos poles lleis de la física o de cálculu teóricu fueren fitos.<ref name="ultraintelligent" /><ref name="acceleratingfuture" /><ref name="ultraintelligent1" />
 
=== Superinteligencia ===
{{Main|Superinteligencia}}
 
Munchos d'los escritores que falen sobre la singularidá, como [[Vernor Vinge]] y [[Raymond Kurzweil|Ray Kurzweil]], definen el conceutu en términos de la creación tecnolóxicateunolóxica de superinteligencia. Anque argumenten que ye difícil o imposible pa los seres humanos d'anguaño predicir cómo va ser la vida de los seres humanos nun mundu post-singularidá.<ref name="singularity" /><ref name="vinge1993" /><ref name="singinst.org" />
 
[[Vernor Vinge]] fixo una analoxía ente la rotura de la nuesa capacidá de predicir lo qu'asocedería dempués del desenvolvimientu de la superinteligencia y la rotura de la capacidá predictiva de la [[física moderna]] na [[singularidá|singularidá del espaciu-tiempu]], más allá del [[horizonte de sucesos]] d'un [[furacu negru]].<ref name="singinst.org" /> L'autor y otros destacaos escritores declaren específicamente qu'ensin la superinteligencia, los cambeos que produciría esti acontecimientu, nun calificaríen como una verdadera singularidá.<ref name="vinge1993" />
Llinia 75:
 
== Verosimilitud ==
Munchos creen qu'esti acontecimientu nun va tener llugar como otros creen que sí. L'investigador [[Gary Marcus]] afirma que «práuticamente tol mundu nel campu de la IA cree» que les máquines dalgún día van superar a los humanos y «en ciertu nivel, la única diferencia real ente los entusiastes y los escépticos ye un marcu de tiempu».<ref name="Marcus2013">{{cite news|last1=Marcus|first1=Gary|title=Why We Should Think About the Threat of Artificial Intelligence|url=http://www.newyorker.com/online/blogues/elements/2013/10/why-we-should-think-about-the-threat-of-artificial-intelligence.html|accessdate=15 de xunetu de 2014|agency=New Yorker|date=24 Oct 2013}}</ref> Pero per otru llau, gran cantidá de tecnólogos y académicos afirmen que la singularidá tecnolóxicateunolóxica esta en posa, incluyendo a [[Paul Allen]], [[Jeff Hawkins]], [[John Holland]], [[Jaron Lanier]], y [[Gordon Moore]], que la so [[Llei de Moore]] cítase de cutiu en sofitu del conceutu.<ref name="spectrum.ieee.org" /><ref name="ieee" /><ref name="Allen" />
 
=== Causa probable: la crecedera esponencial ===
[[Archivu:PPTMooresLawai.jpg|thumb|225px|Ray Kurzweil escribe que, por cuenta de los [[cambeos de paradigma]], un enclín de crecedera esponencial estiende la [[llei de Moore]] de circuitos integraos pa los primeres [[transistores]], los [[tubos de vacíu]], [[relés]] y equipos [[Electromecánica|electromecánicos]]. Él prediz que la crecedera esponencial va siguir, y que en poques décades la potencia de cálculu de toos el ordenadores va superar al de ("ensin contraste") los celebros humanos, cola [[intelixencia artificial]] sobrehumana qu'apaez na mesma dómina.]]
 
La crecedera esponencial de la tecnoloxíateunoloxía informática suxuríu pola [[Llei de Moore]] ye comúnmente citáu como una razón pa esperar una singularidá nun futuru relativamente próximu. L'informáticu y futurista [[Hans Moravec]] propunxo nun llibru de 1998<ref>{{cite book|author=Moravec, Hans|title=Robot: Mere Machine to Transcendent Mind|year=1999|publisher=Oxford O. Press|page=61|url=http://books.google.co.uk/books?id=fduW6KHhWtQC&pg=PA61}}</ref> que la curva de crecedera esponencial podría estendese de nuevu al traviés de tecnoloxíes de computación previes al [[circuitu integráu]]. El futurista Ray Kurzweil postula una [[llei de rendimientos aceleraos]], nel que la velocidá del cambéu tecnolóxicuteunolóxicu aumenta de manera esponencial,<ref name="google" /> la xeneralización de la Llei de Moore al igual que na propuesta de Moravec. A esto sumir la tecnoloxíateunoloxía de materiales especificamente aplicada a la [[nanotecnología]] , la tecnoloxíateunoloxía médica y otres.<ref name="singularity2" />
 
Ente 1986 y 2007, la capacidá específica de l'aplicación de les máquines pa computar la información per cápita, doblóse cada 14 meses; la capacidá per cápita d'ordenadores d'usu xeneral nel mundu doblóse cada 18 meses; la capacidá mundial de telecomunicaciones per cápita doblóse cada 34 meses; y la capacidá d'almacenamientu del mundu per cápita doblóse cada 40 meses.<ref name="HilbertLopez2011">[http://www.sciencemag.org/content/332/6025/60 "The World's Technological Capacity to Store, Communicate, and Compute Information"], Martin Hilbert and Priscila López (2011), [[Science (journal)]], 332(6025), 60-65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html</ref> Al igual qu'otru autores, Kurzweil acútase'l términu "singularidá" a un rápidu aumentu de la intelixencia (a diferencia d'otres tecnoloxíes), la escritura, por casu, que "La Singularidá va dexanos tescender les llimitaciones de los nuesos cuerpos y celebros biolóxicos ... Nun va haber distinción, dempués de la Singularidá, ente'l ser humanu y la máquina".<ref name="singularity3" /> Créese qu'el "diseñu del celebru humanu, anque nun ye senciellu, ye sicasí un billón de vegaes más simples de lo que paez, por cuenta de la masiva redundancia".<ref>{{cite journal|last=Kurzweil|first=Ray|title=The singularity: The last word -[forum]|journal=IEEE|date=10 d'ochobre de 2008|volume=45|page=10|doi=10.1109/MSPEC.2008.4635038|url=http://ieeexplore.ieee.org.mutex.gmu.edu/stamp/stamp.jsp?tp=&arnumber=4635038&isnumber=4635032&tag=1|accessdate=2 d'ochobre de 2013}}</ref> Según Kurzweil, la razón pola que'l celebru tien una calidá desordenada ya impredicible ye porque él, como la mayoría de los sistemes biolóxicos, ye un" fractal probabilístico".<ref name="transformation" />
 
=== Cambéu Aceleráu ===
Llinia 88:
 
{{Main|Llei de rendimientos aceleraos}}
Dellos defensores de la singularidá argumenten la so inevitabilidad por aciu la extrapolación de los enclinos del pasáu, cuantimás les relatives nel acurtiamientu de la fienda ente les meyores y la tecnoloxíateunoloxía.
 
{{Harvtxt|Hawkins|1983}} escribe que "mindsteps", cambeos dramáticos y irreversibles a paradigmes o visiones del mundu, tán acelerándose na frecuencia cuantificada na so ecuación de la mesma. Cita los inventos de la escritura, les matemátiques y l'informática como exemplos sobre tales cambeos.
 
L'analís de Kurzweil a partir de la [[llei de rendimientos aceleraos]] (del inglés ''Law of Accelerating Returns'') identifica que cada vez que la tecnoloxíateunoloxía averar a una barrera, les nueves tecnoloxíes la supererán. Presumiblemente, una singularidá tecnolóxicateunolóxica llevaría a un rápidu desenvolvimientu d'una [[Escala de Kardashov|civilización Kardashev Tipu I]], que llogró'l dominiu de los recursos del so planeta d'orixe.<ref name="civilization" />
 
Peligros frecuentemente citaos inclúin a los asociaos comúnmente cola nanotecnología molecular y l'inxeniería xenética. Estes amenaces son los principales problemes pa los dos defensores y críticos de la singularidá, que fueron oxetu d'artículu de la revista ''[[Wired]]'' de Bill Joy "Por qué'l futuru nun nos precisa" (“Why the future doesn’t need us”)<ref>{{Harv|Joy|2000}}</ref>
Llinia 101:
 
== Oposición ==
Son dellos los críticos que tán dafechu en desalcuerdu sobre l'acontecimientu singularidá, afirmando que nengún equipu o máquina podríen algamar la intelixencia humana. <ref>[[Singularidá tecnolóxicateunolóxica#CITAREFDreyfusDreyfus2000|Dreyfus y Dreyfus, 2000]], p. xiv: 'The truth is that human intelligence can never be replaced with machine intelligence simply because we are not ourselves "thinking machines" in the sense in which that term is commonly understood.'</ref>
 
El científicu canadiense, [[Steven Pinker]] declaró en 2008:{{quote|(...) Nun hai la más mínima razón pa creer nuna singularidá que vien. El fechu de que puede visualizase un futuru na so imaxinación nun ye evidencia de que ye probable o inclusive posible. Mira les ciudaes abovedaes, desplazamientos jet-pack, ciudaes so l'agua, edificios de milles d'altu, y los automóviles de propulsión nuclear – toes yeren fantasíes futuristes cuando yo yera un neñu que nunca llegaron. La pura potencia de procesamientu nun ye un polvu máxico que resuelve mágicamente tolos tos problemes.(...)<ref name="spectrum.ieee.org"/>}}El científicu alemán {{Harvtxt|Schmidhuber|2006}}, per otru llau suxure diferencies na memoria de los acontecimientos recién y llonxanos pa crear una ilusión de l'aceleración del cambéu, y que tales fenómenos pueden ser responsables de les predicciones apocalípticas del pasáu.
Llinia 108:
L'investigador futurista [[Martin Ford]] postula qu'antes de la singularidá podríen asoceder ciertos trabayos rutinarios onde la economía seria automatizada, lo que provocaría un desempléu masivu y la cayida de la demanda del consumidor, polo qu'esto destruyiría l'incentivu pa invertir nes tecnoloxíes necesaries por que se lleve a cabu la singularidá.<ref>{{cita llibru|apellíos=Ford|nombre=Martin|enlaceautor=|títulu=The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future|url=|fechaacceso=|añu=2009|editorial=Acculant|isbn=978-1-4486-5981-4|editor=|ubicación=|página=|idioma=|capítulu=}}</ref>
 
L'escritor estauxunidense [[Jaron Lanier]], tamién fala redolada a la tecnoloxíateunoloxía, refutando la idea de que la singularidá ye inevitable. Postula que la tecnoloxíateunoloxía ta creándose a sigo mesma y nun ye un procesu nel anonimatu. Afirma que la única razón pa creer na acción humana sobre la tecnoloxíateunoloxía ye que pueda tener una economía onde les persones ganen el so propiu camín ya inventen les sos propies vides; si s'estructura una sociedá ensin faer énfasis na acción humana individual, seria lo mesmo que negar a les persones influyentes la dignidá y l'autodeterminación. "Singularidá como una celebración de mal gustu y mala política".<ref>{{cita llibru|apellíos=Lanier|nome=Jaron|enlaceautor=|títulu=Who Owns the Future?|url=|fechaacceso=|añu=2013|editorial=Simon & Schuster|isbn=|editor=|ubicación=|páxina=328|idioma=|capítulu=}}</ref>
 
En ''El Progresu de la Informática'' (n'inglés, ''The Progress of Computing''), l'economista estauxunidense, [[William Nordhaus]] argumentó qu'hasta 1940, los equipos siguieron la crecedera lenta de la economía industrial tradicional, refugando asina les extrapolaciones de la llei de Moore a los ordenadores del sieglu 19. <ref>{{Cita publicación|url=http://www.econ.yale.edu/~nordhaus/homepage/prog_083001a.pdf|títulu=The Progress of Computing|apellíos=Nordhaus|nome=William|fecha=|publicación=30 d'agostu de 2011|fechaacceso=10 d'ochobre de 2017|doi=|pmid=}}</ref>
Llinia 114:
Andrew Kennedy, per otra parte, nel so artículu de 2006 pa la Sociedá Interplanetaria Británica alderica'l cambéu y la crecedera nes velocidaes de los viaxes espaciales,<ref name="interstellar" /> declaró qu'anque la crecedera global al llargu plazu ye inevitable, ye pequenu, qu'incorpora xubíes y baxaes, y señaló que " Les nueves tecnoloxíes siguen les lleis del usu de la enerxía y l'información d'espardimientu conocíes y tán obligaos a conectase colos qu'esisten. Notables descubrimientos teóricos, si terminen siendo utilizaos totalmente, llograríen desempeñar el so papel nel caltenimientu de la tasa de crecedera: y que nun faen de la so curva trazada... redundante". Afirmó que la crecedera esponencial nun ye predictor de sigo mesmu, ya ilustra esto con exemplos como la [[Mecánica cuántica|teoría cuántica]].
 
=== Retrocesu tecnolóxicuteunolóxicu ===
El xeógrafu [[Jared Diamond]] fala d'un retrocesu tecnolóxicuteunolóxicu que imposibilitará la singularidá. Sostien que cuando les cultures autu-limitantes superen la capacidá de carga sostenible de la so redolada, y el consumu de los recursos estratéxicos (madera, suelos o agua) van crear una retroalimentación positiva deletérea repetitiva que conduciría finalmente al colapsu social.<ref>{{cita llibru|apellíos=Diamond|nome=Jared|enlaceautor=|títulu=Collapse: How Societies Choose to Fail or Succeed|url=|fechaacceso=|añu=2005|editorial=Viking|isbn=0-14-303655-6|editor=|ubicación=|página=|idioma=Inglés|capítulu=}}</ref> A esta mesma idea de retrocesu tecnolóxicuteunolóxicu sumir los físicos [[Theodore Modis]]<ref name="google13" /><ref name="Singularity Myth" /> y [[Jonathan Huebner]]<ref name="technological14" />. Ellos almiten que la invocación tecnolóxicateunolóxica aumenta pero esta en descensu pola xubida de les [[Frecuencia de reloj|frecuencies de reló]] de los ordenadores ta retrasándose, anque la predicción de Moore, que la densidá del circuitu sigue calteniéndose con un aumentu esponencial. Esto ye por cuenta de la escesiva acumuladura de calor dende'l chip, que nun puede estenar lo suficientemente rápido pa evitar qu'el chip se derrita cuando s'opera a altes velocidaes. Les meyores na velocidá pueden ser posibles nel futuru, en virtú de más diseños de CPU energéticamente eficientes y procesadores de multi-celdes.<ref name="cnet" /> Ente que Kurzweil utiliza los recursos y trabayos de Modis, alredor de l'aceleración del cambéu, Modis alloñar de la tesis de Kurzweil d'una "singularidá tecnolóxicateunolóxica", alegando qu'escarez de rigor científico.<ref name="Singularity Myth" />
 
Finalmente, l'empresariu estauxunidense, [[Paul Allen]] argumenta lo contrario sobre les tornes aceleraes, el frenu de la complexidá;<ref name="Allen" /> afirmando que la ciencia más avanzada escontra la comprensión fai que la intelixencia fáigase más difícil, y sería pa faer progresos adicionales. Un estudiu sobre la cantidá de patentes amuesa que la creatividá humana nun amuesa tornes aceleraes, pero ello ye que como suxure Joseph Tainter nel so artículu “El Colapsu de les Sociedaes Complexes” (del inglés, The Collapse of Complex Societies),<ref name="university" /> una llei de rendimientos decrecientes. El númberu de patentes per cada mil algamó'l so puntu máximu nel períodu de 1850 a 1900, y foi menguando dende entós.<ref name="technological14" /> La crecedera de la complexidá col tiempu apuerta a autolimitada, y conduz a un xeneralizáu "colapsu xeneral de sistemes". <ref name=":2">{{Cita publicación|url=https://www.technologyreview.com/s/425733/paul-allen-the-singularity-isnt-near/|títulu=The Singularity Isn't Near|apellíos=Allen|nombre=Paul|fecha=|publicación=12 d'ochobre de 2011|fechaacceso=10 d'ochobre de 2017|doi=|pmid=}}</ref>
 
=== En contra de Kurzweil ===
Amás de les crítiques xenerales del conceutu de singularidá, dellos críticos plantegaron cuestiones en contra de lo que manifestaba como singularidá'l científicu [[Raymond Kurzweil]]. Una llinia de crítica ye qu'un [[Escala logarítmica|gráficu log-log]] d'esta naturaleza inclínase intrínsecamente escontra una resultancia en llinia recta. Otros identifiquen un sesgu de seleición nos puntos que Kurzweil escueye utilizar. Un claru exemplu d'esto plantegar el biólogu [[PZ Myers]] quien señala que munchos de los primeres "eventos" evolutivos fueron deteníos arbitrariamente.<ref name="moreblades" /> Kurzweil hai refutado esto, trazando eventos evolutivos de 15 fontes neutrales, y demostrando qu'encaxen nuna llinia recta nun gráficu log-log. ''[[The Economist]]'' burllar de la idea con un gráficu extrapolando el númberu de fueyes nuna máquina d'afaitar, que aumentó nos últimos años ente unu hasta cinco, y que va aumentar cada vez más rápidu hasta l'infinitu.<ref name="PZMyers" />
 
Llinia 128:
 
== Riesgos ==
L'acontecimientu singularidá tecnolóxicateunolóxica pa dellos autores y críticos trai bien de riesgos pa la sociedá. Nel 2000, [[Bill Joy]], un tecnólogu prominente y un co-fundador de [[Sun Microsystems]], espresó la so esmolición polos peligros potenciales de la singularidá.<ref name="episode" />
 
=== Incertidume ===
El términu "singularidá tecnolóxicateunolóxica" reflexa la idea de que tal cambéu puede asoceder de sópitu, y que ye difícil predicir cómo'l nuevu mundu resultante operaría.<ref name="positive-and-negative" /><ref name="theuncertainfuture" /> Nun ta claru si una esplosión d'intelixencia d'esti tipu sería beneficiosa o perxudicial, o inclusive una amenaza esistencial.<ref name="catastrophic" /><ref name="nickbostrom" /> Como la tema nun foi tratáu polos investigadores d'[[IA Fuerte|intelixencia artificial xeneral]], a pesar de que la tema de la intelixencia artificial amigable sía investigada pol Institutu Futuru de la Humanidá (Future of Humanity Institute) y l'Institutu pa la Singularidá Intelixencia artificial (Singularity Institute for Artificial Intelligence), qu'agora ye l'Institutu d'Investigación n'Intelixencia de la Máquina (Machine Intelligence Research Institute).<ref name="positive-and-negative" />
 
=== Implicaciones pa la sociedá humana ===
Llinia 140:
Dellos espertos y académicos cuestionaron l'usu de [[robots]] pal combate militar, sobremanera cuando a estos robots dáse-yos dalgún grau de funciones autónomes.<ref name="dailytech">Mick, Jason. [http://www.dailytech.com/New%20Navyfunded%20Report%20Warns%20of%20War%20Robots%20Going%20Terminator/article14298.htm New Navy-funded Report Warns of War Robots Going "Terminator"], Blogue, dailytech.com, February 17, 2009.</ref> Un informe de la [[marina d'Estaos Xuníos]] indica que, como los robots militares vuélvense más complexos, debería d'haber una mayor atención a implicaciones sobre la so capacidá de tomar decisiones autónomes.<ref name="engadget">Flatley, Joseph L. [http://www.engadget.com/2009/02/18/navy-report-warns-of-robot-uprising-suggests-a-strong-moral-com/ Navy report warns of robot uprising, suggests a strong moral compass], engadget.com, 18 February 2009.</ref><ref name="palmer">[http://news.bbc.co.uk/2/hi/technology/8182003.stm Call for alderica on killer robots], By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.</ref> La AAAI encargó un estudiu pa esaminar esta cuestión,<ref name="microsoft">[http://research.microsoft.com/en-us/um/people/horvitz/AAAI_Presidential_Panel_2008-2009.htm AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study], Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.</ref> qu'apunta a programes como'l dispositivu d'alquisición d'idiomes (Language Acquisition Device), que se reivindica pa emular la interacción humana.
 
=== Midíes de seguridá - ¿TecnoloxíaTeunoloxía amigable? ===
Per otru llau, dalgunos sofiten el diseñu de la intelixencia artificial atenta, lo que significa que les meyores que yá se tán produciendo cola IA tamién tienen d'incluyir un esfuerzu por que la IA sía intrínsecamente atenta y humana.<ref name="asimovlaws">[http://www.asimovlaws.com/articles/archives/2004/07/why_we_need_fri_1.html Article at Asimovlaws.com], July 2004, accessed 7/27/2009.</ref> De [[Isaac Asimov]], “les [[Tres Ley de la Robótica]]” ye unu de los primeros exemplos de midíes de seguridá propuestes pa la IA. Les lleis tán destinaes a prevenir que los robots d'intelixencia artificial estropien a los seres humanos. Nes hestories de Asimov, los problemes percibíos coles lleis tienden a surdir como resultáu d'un tracamundiu per parte de dalgún operador humanu; los mesmos robots tán a cencielles actuando pa la so meyor interpretación de les sos normes.
 
Llinia 149:
 
=== Noveles ===
En 1984, [[Samuel R. Delany]] utiliza "fuga cultural" como un recursu argumental na so novela de ciencia ficción ''Stars in My Pocket Like Grains of Sand''; el términu fuxitivu de complexidá tecnolóxicateunolóxica y cultural, n'efeutu, destrúi tola vida en cualquier mundu nel que se trasluce, un procesu pocu entendíu polos personaxes de la novela, y en contra de los que busquen una defensa estable.
 
Nin más nin menos, [[Vernor Vinge|Vernor Vigne]] tamién popularizó'l conceutu nes noveles de ciencia ficción como en “''Marooned in Realtime''” (1986) y en “''A Fire Upon the Deep''” (1992). El primeru atopar nun mundu de [[Llei de rendimientos aceleraos|rápida aceleración]] de cambéu que lleva a l'apaición de más y más tecnoloxíes sofisticaes dixebraes por intervalu de tiempu cada vez más curtios, hasta que s'algamar un puntu más allá de la comprensión humana. Esti postreru empieza con una descripción imaxinativa de la evolución d'una superinteligencia pasando por una aceleración exponencialmente n'etapes de desenvolvimientu que terminen nun poder [[trascendente]], casi [[omnipotente]] ya insondable por simples humanos. Vinge tamién implica que'l desenvolvimientu nun puede detenese nesti nivel.
Llinia 166:
Películes populares na que los ordenadores vuélvense intelixentes y traten d'apoderar a la raza humana inclúin [[Colossus: The Forbin Project]]; la serie [[Terminator]]; La serie The [[Matrix]]; [[Transformers]]; l'adaptación cinematográfica bien suelta de [[Isaac Asimov]], [[Yo, Robot]]; y, finalmente, [[Stanley Kubrick]] y [[Arthur C. Clarke]] de ''[[2001: A Space Odyssey]]''. La serie de televisión [[Dr. Who]], [[Battlestar Galactica]], y [[Star Trek: The Next Generation]] (que tamién s'enfusa na realidá virtual, la cibernética, formes alternatives de vida, y el posible camín evolutivu de la humanidá) tamién esquiza estes temes. De toos ellos, namái cunta con un verdaderu colosu superinteligente. "The Machine" pol escritor-direutor Caradog James sigue a dos científicos, yá que crean la primer intelixencia artificial consciente de sigo mesma nel mundu mientres la guerra fría. Tola trama de ''Trascendence'' de [[Wally Pfister]] centrar nun escenariu d'esplegue singular. La película del 2013 de ciencia ficción “Her” sigue una relación romántica d'un home con una IA bien intelixente, que col tiempu apriende a ameyorase a sigo mesma y crea una esplosión d'intelixencia. L'adaptación de [[Philip K. Dick]] “[[Do Androids Dream of Electric Sheep?]]” na película [[Blade Runner]], [[Ex Machina]], y [[Tron]] esquicen el conceutu de la xénesis de les máquines pensantes y la so relación col impactu na humanidá. Acelerar la meyora presentar en delles obres de ciencia ficción, y ye una tema central en ''Accelerando'' de [[Charles Stross]].
 
La película “[[Yo, Robot]]”, vagamente basada en [[hestories de robots]] de Asimov, un ordenador de IA intenta tomar el control completu sobre la humanidá col propósitu de protexer a la humanidá de sigo mesma, por cuenta d'una [[Tres ley de la robótica|extrapolación de los Trés Lleis]].
 
[[Alíen: Covenant|Alíen: Convenant]], ye una película que trata d'un viaxe escontra un remotu planeta na galaxa. Na hestoria actívase un [[androide]] nuevu, que ye una [[intelixencia artificial]]. Nel viaxe afayen que nun tán solos en dichu planeta, y el so oxetivu empieza a ser tratar de vivir nesi ambiente peligroso y contrario.
Llinia 182:
== Ver tamién ==
 
* [[Revolución tecnolóxicateunolóxica]]
 
== Notes ==
Llinia 204:
<ref name="The Age of Robots">{{cite web| url=http://www.frc.ri.cmu.edu/~hpm/project.archive/xeneral.articles/1993/Robot93.html| title= The Age of Robots|date=June 1993| first=Hans| last=Moravec| accessdate=23 de xunu de 2006}}</ref>
 
<ref name="The Expounder of Primitive Christianity">{{Citation | last = Thornton | first = Richard | title = The Expounder of Primitive Christianity | presta = Ann Arbor, Michigan | year = 1847 | volume = 4 | page = 281 | url = http://books.google.com/?id=ZM_hAAAAMAAJ&dq=%22Primitive%20Expounder%22%20thornton%201847&pg=PA281#v=onepage&q=thinking%20machine&f=false }}</ref>
 
<ref name="When will computer hardware match the human brain?">{{Citation| url=http://www.transhumanist.com/volume1/moravec.htm| journal=Journal of Evolution and Technology| year=1998| volume=1| title=When will computer hardware match the human brain?| first=Hans| last=Moravec| accessdate=23 de xunu de 2006| postscript=.| archiveurl=https://web.archive.org/web/20060615031852/http://transhumanist.com/volume1/moravec.htm| archivedate=15 de xunu de 2006}}</ref>
Llinia 246:
<ref name="mathematical">{{cite journal|url=http://docs.google.com/file/d/0B-5-JeCa2Z7hbWcxTGsyU09HSTg/edit?pli=1 | last=Ulam|first=Stanislaw |title=Tribute to John von Neumann|publisher=Bulletin of the American Mathematical Society|volume=64, #3, part 2|date=May 1958|page=5}}</ref>
 
<ref name="moreblades">{{Citation |title=More blades good |author=Anonymous |newspaper=The Economist |date=18 de marzu de 2006 |url=http://www.economist.com/science/displaystory.cfm?story_id=5624861 |location=London |page=85 |volume=378 |issue=8469 }}</ref>
 
<ref name="nickbostrom">{{cite web|url=http://www.nickbostrom.com/existential/risks.html|title=Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards|work=nickbostrom.com}}</ref>
Llinia 412:
| postscript = .}}
* {{Citation
|first = I. J.
|last = Good
|authorlink = I. J. Good
|title = Speculations Concerning the First Ultraintelligent Machine
|journal = Advances in Computers |year = 1965
|volume = 6
|pages = 31–88
|publisher = [[Academic Press]]
|editors = Franz L. Alt and Morris Rubinoff
|url = http://www.aeiveos.com/~bradbury/Authors/Computing/Good-IJ/SCtFUM.html
|accessdate = 7 d'agostu de 2007
|doi = 10.1016/S0065-2458(08)60418-0
|series = Advances in Computers |isbn = 9780120121069
|archiveurl = https://web.archive.org/web/20010527181244/http://www.aeiveos.com/~bradbury/Authors/Computing/Good-IJ/SCtFUM.html
|archivedate = 27 de mayu de 2001
}}
* {{Citation
|url = http://hanson.gmu.edu/vc.html
|title = Some Skepticism
|first = Robin
|last = Hanson
|author-link = Robin Hanson
|year = 1998
|publisher = Robin Hanson
|accessdate = 19 de xunu de 2009
|archiveurl = https://web.archive.org/web/20090828023928/http://hanson.gmu.edu/vc.html
|archivedate = 28 d'agostu de 2009
}}
Llinia 494:
}}
* {{Citation
|last = Johansen
|first = Anders
|last2 = Sornette
|first2 = Didier
|date = 25 de xineru de 2001
|title = Finite-time singularity in the dynamics of the world population, economic and financial indices
|periodical = Physica A |volume = 294
|pages = 465–502
|url = http://hjem.get2net.dk/kgs/growthphysA.pdf
|format = PDF
|accessdate = 30 d'ochobre de 2007
|doi = 10.1016/S0378-4371(01)00105-4
|issue = 3–4
|arxiv = cond-mat/0002075
|bibcode = 2001PhyA..294..465J
|archiveurl = https://web.archive.org/web/20071129111006/http://hjem.get2net.dk/kgs/growthphysA.pdf
|archivedate = 29 de payares de 2007
}}
Llinia 581:
}}
* {{Citation
|last = Singularity Institute for Artificial Intelligence
|authorlink = Singularity Institute for Artificial Intelligence
|title = Why Artificial Intelligence?
|year = 2002
|url = http://www.singinst.org/intro/whyAI-print.html
|archiveurl = https://web.archive.org/web/20061004201151/http://www.singinst.org/intro/whyAI-print.html
|archivedate = 4 d'ochobre de 2006
}}
* {{Citation
|url = http://www.asimovlaws.com/
|title = 3 Laws Unsafe
|last = Singularity Institute for Artificial Intelligence
|year = 2004
|accessdate = 7 d'agostu de 2007
|archiveurl = https://web.archive.org/web/20110323234811/http://www.asimovlaws.com/
|archivedate = 23 de marzu de 2011
}}
* {{Citation
|last = Singularity Institute for Artificial Intelligence
|title = What is the Singularity?
|year = 2007
|url = http://www.singinst.org/overview/whatisthesingularity
|accessdate = 4 de xineru de 2008
|archiveurl = https://web.archive.org/web/20071230031316/http://www.singinst.org/overview/whatisthesingularity/
|archivedate = 30 d'avientu de 2007
}}