Diferencies ente revisiones de «Singularidá teunolóxica»

Contenido eliminado Contenido añadido
m Preferencies llingüístiques
m Preferencies llingüístiques
Llinia 26:
En 1985, [[Ray Solomonoff]] introdució la noción de "puntu infinitu"<ref name="When will computer hardware match the human brain?" /> na escala del tiempu de la intelixencia artificial, analizando la magnitú del "shock del futuru", que "podemos esperar de la nuesa IA espandida na comunidá científica", y sobre los efectos sociales. Les estimaciones fueron feches "pa cuando asocederíen estos finxos, siguíos por delles suxerencies pal usu más eficaz de la crecedera teunolóxica desaxeradamente rápido que s'espera".
 
Nel so llibru de 1988 “Mind Children”, el científicu de la computación y futurista Hans Moravec xeneraliza la Llei de Moore pa faer predicciones sobre'l futuru de la vida artificial. Moravec esboza una llinia de tiempu y un escenariu nesti sentíu<ref name="The Age of Robots" /><ref name="Robot Predictions Evolution" />nel que los robots van evolucionar nuna nueva serie d'especies artificiales, al alredor del 2030 al 2040<ref name="google5" /> En “Robot: Mere Machine to Transcendent Mind”, publicáu en 1998, Moravec considera amás les implicaciones de la evolución de la [[Intelixencia artificial|intelixencia del robot]], la xeneralización de la llei de Moore a les tecnoloxíesteunoloxíes precediendo'l [[circuitu integráu]], y especulando sobre una venida "fueu en mente" de superinteligencia de rápida espansión, similar a les idees de Vinge.
 
Un artículu de 1993 por Vinge, "The Coming Technological Singularity: How to Survive in the Post-Human Yera",<ref name="vinge1993" /> estendióse llargamente n'Internet y ayudó a popularizar la idea.<ref>83</ref> Esti artículu contién la declaración citada de cutiu, "Dientro de treinta años, vamos disponer de los medios teunolóxicos pa crear intelixencia sobrehumana. Poco dempués, la era humana va terminase." Vinge refina la so estimación de les escales temporales necesaries, y amestó: "Sosprenderíame si esti eventu produz antes de 2005 o dempués de 2030."
Llinia 38:
En 2008, [[Robin Hanson]] (teniendo como "singularidá" pa referise a un fuerte aumentu nel esponente de la crecedera económica) numberó les [[Revolución Industrial|revoluciones agrícola ya industrial]] como singularidaes pasaes. La extrapolación d'estos sucesos pasaos; Hanson propón que la próxima singularidá económica tendría d'aumentar la crecedera económica d'ente 60 y 250 vegaes. Una innovación que dexó la sustitución virtual del tol trabayu humanu y que podría desencadenar esti eventu.<ref name="singularityu" />
 
En 2009, Kurzweil y el fundador de [[X-Prize]], [[Peter Diamandis]] anunciaron la creación de la [[Universidá de la Singularidá]], que la so misión declarada ye "educar, inspirar y empoderar a los líderes p'aplicar tecnoloxíesteunoloxíes esponenciales pa faer frente a los grandes retos de la humanidá."<ref name="sens" /> Financiada por [[Google]], [[Autodesk]], ePlanet Ventures, y un grupu de líderes de la industria de teunoloxía de la Universidá de la Singularidá, basar nel [[Centru d'Investigación Ames|Ames Research Center]] de la [[NASA]] en [[Mountain View]], [[California]]. La organización ensin fines d'arriquecimientu executa un programa añal de posgrado de diez semana mientres el branu del hemisferiu norte que cubre diez tecnología distintos y pistes aliaes, y una serie de programes executivos en tol añu.
 
A tráves de los años siguió falándose de la mesma, en 2010, [[Aubrey de Grey]] aplica'l términu "''Methuselarity''"<ref name="Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality" />hasta'l puntu nel que la teunoloxía médica meyora tan rápido que la [[esperanza de vida|vida humana]] útil esperada aumenta por más d'un añu per añu. En " Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality"<ref name="time" />(2010), Robert Geraci ufierta una cuenta del desenvolvimientu de "ciber - teoloxía", inspirada nos estudios de la Singularidá.
Llinia 62:
 
=== Esplosión d'intelixencia ===
La [[IA fuerte]] podría llegar a provocar, tal como lo espresa [[I. J. Good|Irving John Good]], una esplosión d'intelixencia”.<ref>{{cita llibru|apellíos=Good|nome=I.J|enlaceautor=|títulu=Speculations Concerning the First Ultraintelligent Machine|url=|fechaacceso=|añu=1950|editorial=|isbn=|editor=|ubicación=|página=|idioma=|capítulu=Advances in Computers, vol. 6.}}</ref> A pesar de que'l progresu teunolóxicu aceleróse, viose llindáu pola intelixencia básica del celebru humanu, que nun tuvo, según [[Paul R. Ehrlich]], un cambéu significativu mientres los últimos milenios.<ref name="Paul Ehrlich June 2008" /> Por aciu el creciente poder de los ordenadores y otres tecnoloxíesteunoloxíes, podría ser posible construyir una máquina más intelixente que la humanidá.<ref>{{cita llibru|apellíos=Shajahan|nome=S|enlaceautor=|títulu=Management Information Systems|url=|fechaacceso=|añu=2007|editorial=New Age International|isbn=|editor=|ubicación=|página=|idioma=|capítulu=}}</ref> Lo siguiente consiste nuna intelixencia sobrehumana –inventada yá sía al traviés de l'amplificación de la intelixencia humana o al traviés de la intelixencia artificial– capaz d'apurrir un mayor resolvimientu de problemes y habilidaes maxinos, y de diseñar una máquina meyor, más intelixente (autu-ameyora recursiva). Estes iteraciones d'autu-ameyora recursiva podríen acelerar, dexando potencialmente un enorme cambéu cualitativu primero que les llendes cimeres impuestos poles lleis de la física o de cálculu teóricu fueren fitos.<ref name="ultraintelligent" /><ref name="acceleratingfuture" /><ref name="ultraintelligent1" />
 
=== Superinteligencia ===
Llinia 72:
 
=== Singularidá de la Non-IA ===
Dellos autores utilicen "la singularidá" d'una manera más amplia pa referise a los cambeos radicales na nuesa sociedá, provocaos poles nuevu tecnoloxíesteunoloxíes como la [[nanotecnología molecular]];<ref name="hplusmagazine" /><ref name="yudkowsky.net" /><ref name="agi-conf" /> Munchu autores tamién venceyen la singularidá de les observaciones de la crecedera esponencial de diverses tecnoloxíesteunoloxíes (cola [[Llei de Moore]], que ye l'exemplu más prominente). Col usu de tales observaciones como base pa la predicción de la singularidá, ye probable qu'asoceda en dalgún momentu del sieglu 21.<ref name="yudkowsky.net" /><ref name="kurzweilai.net" />
 
== Verosimilitud ==
Llinia 80:
[[Archivu:PPTMooresLawai.jpg|thumb|225px|Ray Kurzweil escribe que, por cuenta de los [[cambeos de paradigma]], un enclín de crecedera esponencial estiende la [[llei de Moore]] de circuitos integraos pa los primeres [[transistores]], los [[tubos de vacíu]], [[relés]] y equipos [[Electromecánica|electromecánicos]]. Él prediz que la crecedera esponencial va siguir, y que en poques décades la potencia de cálculu de toos el ordenadores va superar al de ("ensin contraste") los celebros humanos, cola [[intelixencia artificial]] sobrehumana qu'apaez na mesma dómina.]]
 
La crecedera esponencial de la teunoloxía informática suxuríu pola [[Llei de Moore]] ye comúnmente citáu como una razón pa esperar una singularidá nun futuru relativamente próximu. L'informáticu y futurista [[Hans Moravec]] propunxo nun llibru de 1998<ref>{{cite book|author=Moravec, Hans|title=Robot: Mere Machine to Transcendent Mind|year=1999|publisher=Oxford O. Press|page=61|url=http://books.google.co.uk/books?id=fduW6KHhWtQC&pg=PA61}}</ref> que la curva de crecedera esponencial podría estendese de nuevu al traviés de tecnoloxíesteunoloxíes de computación previes al [[circuitu integráu]]. El futurista Ray Kurzweil postula una [[llei de rendimientos aceleraos]], nel que la velocidá del cambéu teunolóxicu aumenta de manera esponencial,<ref name="google" /> la xeneralización de la Llei de Moore al igual que na propuesta de Moravec. A esto sumir la teunoloxía de materiales especificamente aplicada a la [[nanotecnología]] , la teunoloxía médica y otres.<ref name="singularity2" />
 
Ente 1986 y 2007, la capacidá específica de l'aplicación de les máquines pa computar la información per cápita, doblóse cada 14 meses; la capacidá per cápita d'ordenadores d'usu xeneral nel mundu doblóse cada 18 meses; la capacidá mundial de telecomunicaciones per cápita doblóse cada 34 meses; y la capacidá d'almacenamientu del mundu per cápita doblóse cada 40 meses.<ref name="HilbertLopez2011">[http://www.sciencemag.org/content/332/6025/60 "The World's Technological Capacity to Store, Communicate, and Compute Information"], Martin Hilbert and Priscila López (2011), [[Science (journal)]], 332(6025), 60-65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html</ref> Al igual qu'otru autores, Kurzweil acútase'l términu "singularidá" a un rápidu aumentu de la intelixencia (a diferencia d'otres tecnoloxíesteunoloxíes), la escritura, por casu, que "La Singularidá va dexanos tescender les llimitaciones de los nuesos cuerpos y celebros biolóxicos ... Nun va haber distinción, dempués de la Singularidá, ente'l ser humanu y la máquina".<ref name="singularity3" /> Créese qu'el "diseñu del celebru humanu, anque nun ye senciellu, ye sicasí un billón de vegaes más simples de lo que paez, por cuenta de la masiva redundancia".<ref>{{cite journal|last=Kurzweil|first=Ray|title=The singularity: The last word -[forum]|journal=IEEE|date=10 d'ochobre de 2008|volume=45|page=10|doi=10.1109/MSPEC.2008.4635038|url=http://ieeexplore.ieee.org.mutex.gmu.edu/stamp/stamp.jsp?tp=&arnumber=4635038&isnumber=4635032&tag=1|accessdate=2 d'ochobre de 2013}}</ref> Según Kurzweil, la razón pola que'l celebru tien una calidá desordenada ya impredicible ye porque él, como la mayoría de los sistemes biolóxicos, ye un" fractal probabilístico".<ref name="transformation" />
 
=== Cambéu Aceleráu ===
Llinia 92:
{{Harvtxt|Hawkins|1983}} escribe que "mindsteps", cambeos dramáticos y irreversibles a paradigmes o visiones del mundu, tán acelerándose na frecuencia cuantificada na so ecuación de la mesma. Cita los inventos de la escritura, les matemátiques y l'informática como exemplos sobre tales cambeos.
 
L'analís de Kurzweil a partir de la [[llei de rendimientos aceleraos]] (del inglés ''Law of Accelerating Returns'') identifica que cada vez que la teunoloxía averar a una barrera, les nueves tecnoloxíesteunoloxíes la supererán. Presumiblemente, una singularidá teunolóxica llevaría a un rápidu desenvolvimientu d'una [[Escala de Kardashov|civilización Kardashev Tipu I]], que llogró'l dominiu de los recursos del so planeta d'orixe.<ref name="civilization" />
 
Peligros frecuentemente citaos inclúin a los asociaos comúnmente cola nanotecnología molecular y l'inxeniería xenética. Estes amenaces son los principales problemes pa los dos defensores y críticos de la singularidá, que fueron oxetu d'artículu de la revista ''[[Wired]]'' de Bill Joy "Por qué'l futuru nun nos precisa" (“Why the future doesn’t need us”)<ref>{{Harv|Joy|2000}}</ref>
Llinia 106:
 
=== Sobre la economía ===
L'investigador futurista [[Martin Ford]] postula qu'antes de la singularidá podríen asoceder ciertos trabayos rutinarios onde la economía seria automatizada, lo que provocaría un desempléu masivu y la cayida de la demanda del consumidor, polo qu'esto destruyiría l'incentivu pa invertir nes tecnoloxíesteunoloxíes necesaries por que se lleve a cabu la singularidá.<ref>{{cita llibru|apellíos=Ford|nombre=Martin|enlaceautor=|títulu=The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future|url=|fechaacceso=|añu=2009|editorial=Acculant|isbn=978-1-4486-5981-4|editor=|ubicación=|página=|idioma=|capítulu=}}</ref>
 
L'escritor estauxunidense [[Jaron Lanier]], tamién fala redolada a la teunoloxía, refutando la idea de que la singularidá ye inevitable. Postula que la teunoloxía ta creándose a sigo mesma y nun ye un procesu nel anonimatu. Afirma que la única razón pa creer na acción humana sobre la teunoloxía ye que pueda tener una economía onde les persones ganen el so propiu camín ya inventen les sos propies vides; si s'estructura una sociedá ensin faer énfasis na acción humana individual, seria lo mesmo que negar a les persones influyentes la dignidá y l'autodeterminación. "Singularidá como una celebración de mal gustu y mala política".<ref>{{cita llibru|apellíos=Lanier|nome=Jaron|enlaceautor=|títulu=Who Owns the Future?|url=|fechaacceso=|añu=2013|editorial=Simon & Schuster|isbn=|editor=|ubicación=|páxina=328|idioma=|capítulu=}}</ref>
Llinia 112:
En ''El Progresu de la Informática'' (n'inglés, ''The Progress of Computing''), l'economista estauxunidense, [[William Nordhaus]] argumentó qu'hasta 1940, los equipos siguieron la crecedera lenta de la economía industrial tradicional, refugando asina les extrapolaciones de la llei de Moore a los ordenadores del sieglu 19. <ref>{{Cita publicación|url=http://www.econ.yale.edu/~nordhaus/homepage/prog_083001a.pdf|títulu=The Progress of Computing|apellíos=Nordhaus|nome=William|fecha=|publicación=30 d'agostu de 2011|fechaacceso=10 d'ochobre de 2017|doi=|pmid=}}</ref>
 
Andrew Kennedy, per otra parte, nel so artículu de 2006 pa la Sociedá Interplanetaria Británica alderica'l cambéu y la crecedera nes velocidaes de los viaxes espaciales,<ref name="interstellar" /> declaró qu'anque la crecedera global al llargu plazu ye inevitable, ye pequenu, qu'incorpora xubíes y baxaes, y señaló que " Les nueves tecnoloxíesteunoloxíes siguen les lleis del usu de la enerxía y l'información d'espardimientu conocíes y tán obligaos a conectase colos qu'esisten. Notables descubrimientos teóricos, si terminen siendo utilizaos totalmente, llograríen desempeñar el so papel nel caltenimientu de la tasa de crecedera: y que nun faen de la so curva trazada... redundante". Afirmó que la crecedera esponencial nun ye predictor de sigo mesmu, ya ilustra esto con exemplos como la [[Mecánica cuántica|teoría cuántica]].
 
=== Retrocesu teunolóxicu ===
Llinia 151:
En 1984, [[Samuel R. Delany]] utiliza "fuga cultural" como un recursu argumental na so novela de ciencia ficción ''Stars in My Pocket Like Grains of Sand''; el términu fuxitivu de complexidá teunolóxica y cultural, n'efeutu, destrúi tola vida en cualquier mundu nel que se trasluce, un procesu pocu entendíu polos personaxes de la novela, y en contra de los que busquen una defensa estable.
 
Nin más nin menos, [[Vernor Vinge|Vernor Vigne]] tamién popularizó'l conceutu nes noveles de ciencia ficción como en “''Marooned in Realtime''” (1986) y en “''A Fire Upon the Deep''” (1992). El primeru atopar nun mundu de [[Llei de rendimientos aceleraos|rápida aceleración]] de cambéu que lleva a l'apaición de más y más tecnoloxíesteunoloxíes sofisticaes dixebraes por intervalu de tiempu cada vez más curtios, hasta que s'algamar un puntu más allá de la comprensión humana. Esti postreru empieza con una descripción imaxinativa de la evolución d'una superinteligencia pasando por una aceleración exponencialmente n'etapes de desenvolvimientu que terminen nun poder [[trascendente]], casi [[omnipotente]] ya insondable por simples humanos. Vinge tamién implica que'l desenvolvimientu nun puede detenese nesti nivel.
 
La novela de 1979 de [[James P. Hogan]] “The Two Cares of Tomorrow” ye una descripción esplícita de lo qu'agora se llama la Singularidá. Un sistema d'intelixencia artificial resuelve un problema d'escavación na lluna d'una manera brilloso y novedoso, pero casi mata a un equipu de trabayu nel procesu. Al dase cuenta de que los sistemes tán volviéndose demasiáu sofisticaos y complexos de predicir o dirixir, un equipu científicu propónse enseñar a una rede informática sofisticada cómo pensar más humanamente. La hestoria documenta el surdimientu de conciencia nel sistema informáticu, la perda de los seres humanos de control y los intentos fallíos de cerrar l'esperimentu nel que l'equipu defende desesperadamente a sigo mesmu, y l'intelixencia del ordenador algame'l maduror.