Diferencies ente revisiones de «Singularidá teunolóxica»
Contenido eliminado Contenido añadido
m correiciones |
m Preferencies llingüístiques |
||
Llinia 1:
La '''singularidá
La singularidá
== Orixe ==
El primer usu del términu «singularidá» foi en 1958 pol matemáticu y físicu húngaru [[John von Neumann]]. Esi añu nuna conversación con von Neumann, [[Stanislaw Ulam]] describió "el cada vez más rápidu progresu
{{quote|Una conversación centrar nes meyores cada vez más aceleraos de la
[[Ray Kurzweil]] citó l'usu de von Neumann del términu nun prólogu de von Neumann del clásicu ''The Computer and the Brain''. Años más tarde, en 1965, I.J. Good escribió primeru sobre una "esplosión d'intelixencia", que suxure que si les máquines pudieren superar llixeramente l'intelectu humanu, podríen ameyorar los sos propios diseños en formes imprevisibles pa los sos diseñadores, y polo tanto aumentar [[Recursión|recursivamente]] a sigo mesmos faciéndoles muncho más intelixentes. La primera d'eses meyores puede ser pequena, pero a midida que la máquina vuélvese más intelixente, podría dar llugar a una cascada d'autu-ameyora y un aumentu repentín de la superinteligencia (o una singularidá).
Pero nun ye hasta 1983 onde'l términu popularizar pol matemáticu y escritor [[Vernor Vinge]], quien sostien que tanto la [[intelixencia artificial]], la [[Perfeccionamiento humanu|meyora biolóxica humana]], o los [[Interfaz Celebru Computadora|interfaces celebru-ordenador]] podríen ser les posibles causes de la singularidá.
== Historia ==
Llinia 17:
=== Los sos empiezos Unu de les primeres persones qu'afirmara la esistencia d'una singularidá foi [[Nicolas de Condorcet]], un francés matemáticu, filósofu y revolucionariu del sieglu 18. Nel so Bocetu pa un cuadru históricu del progresu de la mente humana de 1794 (del inglés, Sketch for a Historical Picture of the Progress of the Human Mind), Condorcet afirma,{{quote|La naturaleza nun estableció un plazu pa la perfección de les facultaes humanes; que la perfectibilidad del home ye verdaderamente indefinida; y que'l progresu d'esta perfectibilidad, d'equí p'arriba ye independiente de cualesquier poder que pudiera deseyar detenela, nun tien otra llende que la duración del mundu nos que la naturaleza echónos. Esti progresu va variar ensin dulda na velocidá, pero nunca va ser invertíu'l tiempu nel que la tierra ocupa'l so llugar actual nel sistema del universu, y siempres y cuando les lleis xenerales d'esti sistema produzan nin un cataclismu xeneral nin cambeos tales como la voluntá de quitar a la humanidá de les sos facultaes actuales y los sos recursos actuales.""<ref>{{cite web|url=http://2010.singularitysummit.com.au/about-us/mission/|title=Mission|work=Singularity Summit Australia - Future of Science and Technology}}</ref>}}Años más tarde, l'editor R. Thornton<ref name="The Expounder of Primitive Christianity" /><ref>Adams, H. (1909) "The rule of phase applied to history." In H. Adams & B. Adams (1920), ''The Degradation of the Democratic Dogma.'' New York: Macmillan, 267–311.</ref> escribió sobre la recién invención d'una [[calculadora mecánica]] de cuatro funciones:{{quote| ... Esti tipu de máquines, polos que l'estudiosu puede, xirando un rabil, moler a cabu la solución d'un problema ensin el cansanciu d'aplicación mental, facer pola so introducción nes escueles, faer daños incalculables. Pero, ¿quién sabe que tales máquines cuando sían trayíes a una mayor perfección, nun pueden pensar nun plan pa remediar tolos sos defectos y depués moler les idees más allá del algame de la mente mortal?}}
En 1863, l'escritor [[Samuel Butler]] escribió “Darwin ente les máquines” (del inglés, Darwin Among the Machines), que s'incorporó más tarde na so famosa novela “Erewhon”. Señaló la rápida evolución de la
{{quote| Hai que cavilgar sobre la estraordinaria meyora que les máquines fixeron mientres los últimos cien años, teniendo en cuenta la lentitú cola que los reinos animal y vexetal tán avanzando. Les máquines más altamente entamada son criatures non tantu d'ayeri, a partir de los últimos cinco minutos, por dicir, en comparanza col tiempu pasáu. Supongamos pol bien del argumentu de que los seres conscientes esistieron dende fai dellos venti millones d'años: ver lo les máquines fixeron nos últimos mil años. ¿Nun puede ser que'l mundu dure veinte millones años más? Si ye asina, ¿en qué nun se convertirán nel fin? ... Nun podemos calcular sobre cualquier meyora correspondiente a los poderes intelectuales o físicos del home, que va ser una compensación en contra de la midida de mayor desenvolvimientu que paez tar acutada pa les máquines.}}
En 1909, l'historiador [[Henry Adams]] escribió un ensayu, “La Riegla de la Fase Aplicada a la Hestoria” (del inglés, The Rule of Phase Applied to History),<ref>Adams (1909), p.309</ref> nel que desenvolvió una "teoría física de la hestoria" por aciu l'aplicación de la llei de los cuadraos inversos a períodos históricos, proponiendo una "Llei de l'Aceleración del Pensamientu ". Adams interpreta la hestoria como un procesu d'avanzar escontra un "equilibriu", y especuló qu'esti procesu sería "llevar el pensamientu hasta la llende de les sos posibilidaes nel añu 1921. ¡Ye bien posible!", Y amestó que "les consecuencies pueden ser tan sorprendente como'l cambéu d'agua a vapor, del vierme de la camparina, de la radio a los electrones."<ref>{{cite web|url=http://www.accelerationwatch.com/history_brief.html|title=A Brief History of Intellectual Discussion of Accelerating Change|publisher=Accelerationwatch.com|accessdate=17 d'agostu de 2013}}</ref> El futurólogu John Smart llamó a Adams "Primer Teóricu de la Tierra sobre la Singularidá".<ref name="oxfordjournals" />
Esti términu puede rellacionar tamién col matemáticu [[Alan Turing]], quien en 1951 faló de máquines superando a los seres humanos intelectualmente:<ref name="google4" />{{quote|
=== Al traviés de los años ===
En 1985, [[Ray Solomonoff]] introdució la noción de "puntu infinitu"<ref name="When will computer hardware match the human brain?" /> na escala del tiempu de la intelixencia artificial, analizando la magnitú del "shock del futuru", que "podemos esperar de la nuesa IA espandida na comunidá científica", y sobre los efectos sociales. Les estimaciones fueron feches "pa cuando asocederíen estos finxos, siguíos por delles suxerencies pal usu más eficaz de la crecedera
Nel so llibru de 1988 “Mind Children”, el científicu de la computación y futurista Hans Moravec xeneraliza la Llei de Moore pa faer predicciones sobre'l futuru de la vida artificial. Moravec esboza una llinia de tiempu y un escenariu nesti sentíu<ref name="The Age of Robots" /><ref name="Robot Predictions Evolution" />nel que los robots van evolucionar nuna nueva serie d'especies artificiales, al alredor del 2030 al 2040<ref name="google5" /> En “Robot: Mere Machine to Transcendent Mind”, publicáu en 1998, Moravec considera amás les implicaciones de la evolución de la [[Intelixencia artificial|intelixencia del robot]], la xeneralización de la llei de Moore a les tecnoloxíes precediendo'l [[circuitu integráu]], y especulando sobre una venida "fueu en mente" de superinteligencia de rápida espansión, similar a les idees de Vinge.
Un artículu de 1993 por Vinge, "The Coming Technological Singularity: How to Survive in the Post-Human Yera",<ref name="vinge1993" /> estendióse llargamente n'Internet y ayudó a popularizar la idea.<ref>83</ref> Esti artículu contién la declaración citada de cutiu, "Dientro de treinta años, vamos disponer de los medios
El llibru de divulgación científica de [[Damien Broderick]] “''The Spike''” (1997) foi'l primeru pa investigar la singularidá
En 2005, Ray Kurzweil publicó “[[La Singularidá ta cerca|The singularity in near]]”, que traxo la idea de la singularidá de los medios de comunicación populares, tantu al traviés de l'accesibilidá del llibru y al traviés d'una campaña de publicidá qu'incluyía una apaición en “[[The Daily Show with Jon Stewart|The Daily Show con Jon Stewart]]”.<ref name="Hanson" /> El llibru ximielga intensu discutiniu, en parte por cuenta de que les predicciones utópiques de Kurzweil oldeen fuertemente con otres visiones, más escures de les posibilidaes de la singularidá. Kurzweil, les sos teoríes, y les discutinios que lu arrodien fueron oxetu del documental de Barry Ptolemy “''Transcendent Man''”.
En 2007, [[Eliezer Yudkowsky]] suxurió que munches de les variaes definiciones que s'asignaron a la "singularidá" son incompatibles ente sigo en llugar de sofitase mutuamente.<ref name="yudkowsky.net" />Por casu, Kurzweil extrapola actuales trayectories
En 2008, [[Robin Hanson]] (teniendo como "singularidá" pa referise a un fuerte aumentu nel esponente de la crecedera económica) numberó les [[Revolución Industrial|revoluciones agrícola ya industrial]] como singularidaes pasaes. La extrapolación d'estos sucesos pasaos; Hanson propón que la próxima singularidá económica tendría d'aumentar la crecedera económica d'ente 60 y 250 vegaes. Una innovación que dexó la sustitución virtual del tol trabayu humanu y que podría desencadenar esti eventu.<ref name="singularityu" />
En 2009, Kurzweil y el fundador de [[X-Prize]], [[Peter Diamandis]] anunciaron la creación de la [[Universidá de la Singularidá]], que la so misión declarada ye "educar, inspirar y empoderar a los líderes p'aplicar tecnoloxíes esponenciales pa faer frente a los grandes retos de la humanidá."<ref name="sens" /> Financiada por [[Google]], [[Autodesk]], ePlanet Ventures, y un grupu de líderes de la industria de
A tráves de los años siguió falándose de la mesma, en 2010, [[Aubrey de Grey]] aplica'l términu "''Methuselarity''"<ref name="Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality" />hasta'l puntu nel que la
L'ensayista y filósofu [[Eric Sadin]], nel 2017, fala nel so testu sobre un acoplamientu humanu-máquina, describiéndolo como daqué inéditu ente organismos fisiolóxicos y códigos dixitales. Esti acoplamientu va texéndose y tensionando inestablemente ente aptitúes y misiones otorgaes per un sitiu a los humanos, y por otru a les máquines. Sadin diznos que se caracteriza, hasta agora y por un tiempu, por un equilibriu inciertu y nebuloso, basáu pola distribución binaria y emblemática na frecuentación de tolos fluxos de [[Internet]], operaos la gran mayoría por [[robot]]s electrónicos autónomos.<ref>{{cita llibru|apellíos=Sadin|nome=Eric|enlaceautor=|títulu=La Humanidá Aumentada. L'alministración dixital del mundu|url=|fechaacceso=|añu=2017|editorial=Editorial Caxa Negra|isbn=|editor=|ubicación=|páxina=31-32|idioma=|capítulu=Introducción: La emerxencia d'una cognición artificial superior}}</ref>
Llinia 54:
# La ciencia biolóxica puede atopar maneres d'ameyorar l'intelectu humanu natural.
Vinge sigue prediciendo que les intelixencies sobrehumanes van poder ameyorar les sos propies mentes más rápidu qu'el so ceadores humanos. "Cuando les unidaes de mayor intelixencia humana progresen" Vinge escribe, "que'l progresu va ser muncho más rápido." Él prediz qu'esti ciclu de retroalimentación de la intelixencia autu-ameyorada va faer grandes cantidaes de meyores
Na ''Cume de la Singularidá'' del 2012, Stuart Armstrong fixo un estudiu sobre les predicciones de la [[IA Fuerte|intelixencia artificial xeneral]] (AGI) de los espertos y atopóse una amplia gama de feches prediches, con un valor mediu de 2040. Aldericando'l nivel d'incertidume nes estimaciones de AGI, dixo Armstrong en 2012, «Nun ye dafechu formalizada, pero la mio estimación actual del 80 % ye daqué según a partir de cinco a 100 años».<ref name="armstrong2012" />
== Manifestaciones ==
Munchu autores definieron que la singularidá
=== Esplosión d'intelixencia ===
La [[IA fuerte]] podría llegar a provocar, tal como lo espresa [[I. J. Good|Irving John Good]], una esplosión d'intelixencia”.<ref>{{cita llibru|apellíos=Good|nome=I.J|enlaceautor=|títulu=Speculations Concerning the First Ultraintelligent Machine|url=|fechaacceso=|añu=1950|editorial=|isbn=|editor=|ubicación=|página=|idioma=|capítulu=Advances in Computers, vol. 6.}}</ref>
=== Superinteligencia ===
{{Main|Superinteligencia}}
Munchos d'los escritores que falen sobre la singularidá, como [[Vernor Vinge]] y [[Raymond Kurzweil|Ray Kurzweil]], definen
[[Vernor Vinge]] fixo una analoxía ente la rotura de la nuesa capacidá de predicir lo qu'asocedería dempués del desenvolvimientu de la superinteligencia y la rotura de la capacidá predictiva de la [[física moderna]] na [[singularidá|singularidá del espaciu-tiempu]], más allá del [[horizonte de sucesos]] d'un [[furacu negru]].<ref name="singinst.org" /> L'autor y otros destacaos escritores declaren específicamente qu'ensin la superinteligencia, los cambeos que produciría esti acontecimientu, nun calificaríen como una verdadera singularidá.<ref name="vinge1993" />
Llinia 75:
== Verosimilitud ==
Munchos creen qu'esti acontecimientu nun va tener llugar como otros creen que sí. L'investigador [[Gary Marcus]] afirma que «práuticamente tol mundu nel campu de la IA cree» que les máquines dalgún día van superar a los humanos y «en ciertu nivel, la única diferencia real ente los entusiastes y los escépticos ye un marcu de tiempu».<ref name="Marcus2013">{{cite news|last1=Marcus|first1=Gary|title=Why We Should Think About the Threat of Artificial Intelligence|url=http://www.newyorker.com/online/blogues/elements/2013/10/why-we-should-think-about-the-threat-of-artificial-intelligence.html|accessdate=15 de xunetu de 2014|agency=New Yorker|date=24 Oct 2013}}</ref> Pero per otru llau, gran cantidá de tecnólogos y académicos afirmen que la singularidá
=== Causa probable: la crecedera esponencial ===
[[Archivu:PPTMooresLawai.jpg|thumb|225px|Ray Kurzweil escribe que, por cuenta de los [[cambeos de paradigma]], un enclín de crecedera esponencial estiende la [[llei de Moore]] de circuitos integraos pa los primeres [[transistores]], los [[tubos de vacíu]], [[relés]] y equipos [[Electromecánica|electromecánicos]]. Él prediz que la crecedera esponencial va siguir, y que en poques décades la potencia de cálculu de toos el ordenadores va superar al de ("ensin contraste") los celebros humanos, cola [[intelixencia artificial]] sobrehumana qu'apaez na mesma dómina.]]
La crecedera esponencial de la
Ente 1986 y 2007, la capacidá específica de l'aplicación de les máquines pa computar la información per cápita, doblóse cada 14 meses; la capacidá per cápita d'ordenadores d'usu xeneral nel mundu doblóse cada 18 meses; la capacidá mundial de telecomunicaciones per cápita doblóse cada 34 meses; y la capacidá d'almacenamientu del mundu per cápita doblóse cada 40 meses.<ref name="HilbertLopez2011">[http://www.sciencemag.org/content/332/6025/60 "The World's Technological Capacity to Store, Communicate, and Compute Information"], Martin Hilbert and Priscila López (2011), [[Science (journal)]], 332(6025), 60-65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html</ref> Al igual qu'otru autores, Kurzweil acútase'l términu "singularidá" a un rápidu aumentu de la intelixencia (a diferencia d'otres tecnoloxíes), la escritura, por casu, que "La Singularidá va dexanos tescender les llimitaciones de los nuesos cuerpos y celebros biolóxicos ... Nun va haber distinción, dempués de la Singularidá, ente'l ser humanu y la máquina".<ref name="singularity3" /> Créese qu'el "diseñu del celebru humanu, anque nun ye senciellu, ye sicasí un billón de vegaes más simples de lo que paez, por cuenta de la masiva redundancia".<ref>{{cite journal|last=Kurzweil|first=Ray|title=The singularity: The last word
=== Cambéu Aceleráu ===
Llinia 88:
{{Main|Llei de rendimientos aceleraos}}
Dellos defensores de la singularidá argumenten la so inevitabilidad por aciu la extrapolación de los enclinos del pasáu,
{{Harvtxt|Hawkins|1983}} escribe que "mindsteps", cambeos dramáticos y irreversibles a paradigmes o visiones del mundu, tán acelerándose na frecuencia cuantificada na so ecuación de la mesma. Cita los inventos de la escritura, les matemátiques y l'informática como exemplos sobre tales cambeos.
L'analís de Kurzweil a partir de la [[llei de rendimientos aceleraos]] (del inglés ''Law of Accelerating Returns'') identifica que cada vez que la
Peligros frecuentemente citaos inclúin a los asociaos comúnmente cola nanotecnología molecular y l'inxeniería xenética. Estes amenaces son los principales problemes pa los dos defensores y críticos de la singularidá, que fueron oxetu d'artículu de la revista ''[[Wired]]'' de Bill Joy "Por qué'l futuru nun nos precisa" (“Why the future doesn’t need us”)<ref>{{Harv|Joy|2000}}</ref>
Llinia 101:
== Oposición ==
Son dellos los críticos que tán dafechu en desalcuerdu sobre l'acontecimientu singularidá, afirmando que nengún equipu o máquina podríen algamar la intelixencia humana. <ref>[[Singularidá
El científicu canadiense, [[Steven Pinker]] declaró en 2008:{{quote|(...) Nun hai la más mínima razón pa creer nuna singularidá que vien. El fechu de que puede visualizase un futuru na so imaxinación nun ye evidencia de que ye probable o inclusive posible. Mira les ciudaes abovedaes, desplazamientos jet-pack, ciudaes so l'agua, edificios de milles d'altu, y los automóviles de propulsión nuclear – toes yeren fantasíes futuristes cuando yo yera un neñu que nunca llegaron. La pura potencia de procesamientu nun ye un polvu máxico que resuelve mágicamente tolos tos problemes.(...)<ref name="spectrum.ieee.org"/>}}El científicu alemán {{Harvtxt|Schmidhuber|2006}}, per otru llau suxure diferencies na memoria de los acontecimientos recién y llonxanos pa crear una ilusión de l'aceleración del cambéu, y que tales fenómenos pueden ser responsables de les predicciones apocalípticas del pasáu.
Llinia 108:
L'investigador futurista [[Martin Ford]] postula qu'antes de la singularidá podríen asoceder ciertos trabayos rutinarios onde la economía seria automatizada, lo que provocaría un desempléu masivu y la cayida de la demanda del consumidor, polo qu'esto destruyiría l'incentivu pa invertir nes tecnoloxíes necesaries por que se lleve a cabu la singularidá.<ref>{{cita llibru|apellíos=Ford|nombre=Martin|enlaceautor=|títulu=The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future|url=|fechaacceso=|añu=2009|editorial=Acculant|isbn=978-1-4486-5981-4|editor=|ubicación=|página=|idioma=|capítulu=}}</ref>
L'escritor estauxunidense [[Jaron Lanier]], tamién fala redolada a la
En ''El Progresu de la Informática'' (n'inglés, ''The Progress of Computing''), l'economista estauxunidense, [[William Nordhaus]] argumentó qu'hasta 1940, los equipos siguieron la crecedera lenta de la economía industrial tradicional, refugando asina les extrapolaciones de la llei de Moore a los ordenadores del sieglu 19. <ref>{{Cita publicación|url=http://www.econ.yale.edu/~nordhaus/homepage/prog_083001a.pdf|títulu=The Progress of Computing|apellíos=Nordhaus|nome=William|fecha=|publicación=30 d'agostu de 2011|fechaacceso=10 d'ochobre de 2017|doi=|pmid=}}</ref>
Llinia 114:
Andrew Kennedy, per otra parte, nel so artículu de 2006 pa la Sociedá Interplanetaria Británica alderica'l cambéu y la crecedera nes velocidaes de los viaxes espaciales,<ref name="interstellar" /> declaró qu'anque la crecedera global al llargu plazu ye inevitable, ye pequenu, qu'incorpora xubíes y baxaes, y señaló que " Les nueves tecnoloxíes siguen les lleis del usu de la enerxía y l'información d'espardimientu conocíes y tán obligaos a conectase colos qu'esisten. Notables descubrimientos teóricos, si terminen siendo utilizaos totalmente, llograríen desempeñar el so papel nel caltenimientu de la tasa de crecedera: y que nun faen de la so curva trazada... redundante". Afirmó que la crecedera esponencial nun ye predictor de sigo mesmu, ya ilustra esto con exemplos como la [[Mecánica cuántica|teoría cuántica]].
=== Retrocesu
El xeógrafu [[Jared Diamond]] fala d'un retrocesu
Finalmente, l'empresariu estauxunidense, [[Paul Allen]] argumenta lo contrario sobre les tornes aceleraes, el frenu de la complexidá;<ref name="Allen" /> afirmando que la ciencia más avanzada escontra la comprensión fai que la intelixencia fáigase más difícil, y sería pa faer progresos adicionales. Un estudiu sobre la cantidá de patentes amuesa que la creatividá humana nun amuesa tornes aceleraes, pero ello ye que como suxure Joseph Tainter nel so artículu “El Colapsu de les Sociedaes Complexes” (del inglés, The Collapse of Complex Societies),<ref name="university" /> una llei de rendimientos decrecientes. El númberu de patentes per cada mil algamó'l so puntu máximu nel períodu de 1850 a 1900, y foi menguando dende entós.<ref name="technological14" /> La crecedera de la complexidá col tiempu apuerta a autolimitada, y conduz a un xeneralizáu "colapsu xeneral de sistemes". <ref name=":2">{{Cita publicación|url=https://www.technologyreview.com/s/425733/paul-allen-the-singularity-isnt-near/|títulu=The Singularity Isn't Near|apellíos=Allen|nombre=Paul|fecha=|publicación=12 d'ochobre de 2011|fechaacceso=10 d'ochobre de 2017|doi=|pmid=}}</ref>
=== En contra de Kurzweil
Amás de les crítiques xenerales del conceutu de singularidá, dellos críticos plantegaron cuestiones en contra de lo que manifestaba como singularidá'l científicu [[Raymond Kurzweil]]. Una llinia de crítica ye qu'un [[Escala logarítmica|gráficu log-log]] d'esta naturaleza inclínase intrínsecamente escontra una resultancia en llinia recta. Otros identifiquen un sesgu de seleición nos puntos que Kurzweil escueye utilizar. Un claru exemplu d'esto plantegar el biólogu [[PZ Myers]] quien señala que munchos de los primeres "eventos" evolutivos fueron deteníos arbitrariamente.<ref name="moreblades" /> Kurzweil hai refutado esto, trazando eventos evolutivos de 15 fontes neutrales, y demostrando qu'encaxen nuna llinia recta nun gráficu log-log. ''[[The Economist]]'' burllar de la idea con un gráficu extrapolando el númberu de fueyes nuna máquina d'afaitar, que aumentó nos últimos años ente unu hasta cinco, y que va aumentar cada vez más rápidu hasta l'infinitu.<ref name="PZMyers" />
Llinia 128:
== Riesgos ==
L'acontecimientu singularidá
=== Incertidume ===
El términu "singularidá
=== Implicaciones pa la sociedá humana ===
Llinia 140:
Dellos espertos y académicos cuestionaron l'usu de [[robots]] pal combate militar, sobremanera cuando a estos robots dáse-yos dalgún grau de funciones autónomes.<ref name="dailytech">Mick, Jason. [http://www.dailytech.com/New%20Navyfunded%20Report%20Warns%20of%20War%20Robots%20Going%20Terminator/article14298.htm New Navy-funded Report Warns of War Robots Going "Terminator"], Blogue, dailytech.com, February 17, 2009.</ref> Un informe de la [[marina d'Estaos Xuníos]] indica que, como los robots militares vuélvense más complexos, debería d'haber una mayor atención a implicaciones sobre la so capacidá de tomar decisiones autónomes.<ref name="engadget">Flatley, Joseph L. [http://www.engadget.com/2009/02/18/navy-report-warns-of-robot-uprising-suggests-a-strong-moral-com/ Navy report warns of robot uprising, suggests a strong moral compass], engadget.com, 18 February 2009.</ref><ref name="palmer">[http://news.bbc.co.uk/2/hi/technology/8182003.stm Call for alderica on killer robots], By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.</ref> La AAAI encargó un estudiu pa esaminar esta cuestión,<ref name="microsoft">[http://research.microsoft.com/en-us/um/people/horvitz/AAAI_Presidential_Panel_2008-2009.htm AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study], Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.</ref> qu'apunta a programes como'l dispositivu d'alquisición d'idiomes (Language Acquisition Device), que se reivindica pa emular la interacción humana.
=== Midíes de seguridá - ¿
Per otru llau, dalgunos sofiten el diseñu de la intelixencia artificial atenta, lo que significa que les meyores que yá se tán produciendo cola IA tamién tienen d'incluyir un esfuerzu por que la IA sía intrínsecamente atenta y humana.<ref name="asimovlaws">[http://www.asimovlaws.com/articles/archives/2004/07/why_we_need_fri_1.html Article at Asimovlaws.com], July 2004, accessed 7/27/2009.</ref> De [[Isaac Asimov]], “les [[Tres Ley de la Robótica]]” ye unu de los primeros exemplos de midíes de seguridá propuestes pa la IA. Les lleis tán destinaes a prevenir que los robots d'intelixencia artificial estropien a los seres humanos. Nes hestories de Asimov, los problemes percibíos coles lleis tienden a surdir como resultáu d'un tracamundiu per parte de dalgún operador humanu; los mesmos robots tán a cencielles actuando pa la so meyor interpretación de les sos normes.
Llinia 149:
=== Noveles ===
En 1984, [[Samuel R. Delany]] utiliza "fuga cultural" como un recursu argumental na so novela de ciencia ficción ''Stars in My Pocket Like Grains of Sand''; el términu fuxitivu de complexidá
Nin más nin menos, [[Vernor Vinge|Vernor Vigne]] tamién popularizó'l conceutu nes noveles de ciencia ficción como en “''Marooned in Realtime''” (1986) y en “''A Fire Upon the Deep''” (1992). El primeru atopar nun mundu de [[Llei de rendimientos aceleraos|rápida aceleración]] de cambéu que lleva a l'apaición de más y más tecnoloxíes sofisticaes dixebraes por intervalu de tiempu cada vez más curtios, hasta que s'algamar un puntu más allá de la comprensión humana. Esti postreru empieza con una descripción imaxinativa de la evolución d'una superinteligencia pasando por una aceleración exponencialmente n'etapes de desenvolvimientu que terminen nun poder [[trascendente]], casi [[omnipotente]] ya insondable por simples humanos. Vinge tamién implica que'l desenvolvimientu nun puede detenese nesti nivel.
Llinia 166:
Películes populares na que los ordenadores vuélvense intelixentes y traten d'apoderar a la raza humana inclúin [[Colossus: The Forbin Project]]; la serie [[Terminator]]; La serie The [[Matrix]]; [[Transformers]]; l'adaptación cinematográfica bien suelta de [[Isaac Asimov]], [[Yo, Robot]]; y, finalmente, [[Stanley Kubrick]] y [[Arthur C. Clarke]] de ''[[2001: A Space Odyssey]]''. La serie de televisión [[Dr. Who]], [[Battlestar Galactica]], y [[Star Trek: The Next Generation]] (que tamién s'enfusa na realidá virtual, la cibernética, formes alternatives de vida, y el posible camín evolutivu de la humanidá) tamién esquiza estes temes. De toos ellos, namái cunta con un verdaderu colosu superinteligente. "The Machine" pol escritor-direutor Caradog James sigue a dos científicos, yá que crean la primer intelixencia artificial consciente de sigo mesma nel mundu mientres la guerra fría. Tola trama de ''Trascendence'' de [[Wally Pfister]] centrar nun escenariu d'esplegue singular. La película del 2013 de ciencia ficción “Her” sigue una relación romántica d'un home con una IA bien intelixente, que col tiempu apriende a ameyorase a sigo mesma y crea una esplosión d'intelixencia. L'adaptación de [[Philip K. Dick]] “[[Do Androids Dream of Electric Sheep?]]” na película [[Blade Runner]], [[Ex Machina]], y [[Tron]] esquicen el conceutu de la xénesis de les máquines pensantes y la so relación col impactu na humanidá. Acelerar la meyora presentar en delles obres de ciencia ficción, y ye una tema central en ''Accelerando'' de [[Charles Stross]].
La película “[[Yo, Robot]]”, vagamente basada en [[hestories de robots]] de Asimov, un ordenador de IA intenta tomar el control completu sobre la humanidá col propósitu de protexer a la humanidá de sigo mesma,
[[Alíen: Covenant|Alíen: Convenant]], ye una película que trata d'un viaxe escontra un remotu planeta na galaxa. Na hestoria actívase un [[androide]] nuevu, que ye una [[intelixencia artificial]]. Nel viaxe afayen que nun tán solos en dichu planeta, y el so oxetivu empieza a ser tratar de vivir nesi ambiente peligroso y contrario.
Llinia 182:
== Ver tamién ==
* [[Revolución
== Notes ==
Llinia 204:
<ref name="The Age of Robots">{{cite web| url=http://www.frc.ri.cmu.edu/~hpm/project.archive/xeneral.articles/1993/Robot93.html| title= The Age of Robots|date=June 1993| first=Hans| last=Moravec| accessdate=23 de xunu de 2006}}</ref>
<ref name="The Expounder of Primitive Christianity">{{Citation
<ref name="When will computer hardware match the human brain?">{{Citation| url=http://www.transhumanist.com/volume1/moravec.htm| journal=Journal of Evolution and Technology| year=1998| volume=1| title=When will computer hardware match the human brain?| first=Hans| last=Moravec| accessdate=23 de xunu de 2006| postscript=.| archiveurl=https://web.archive.org/web/20060615031852/http://transhumanist.com/volume1/moravec.htm| archivedate=15 de xunu de 2006}}</ref>
Llinia 246:
<ref name="mathematical">{{cite journal|url=http://docs.google.com/file/d/0B-5-JeCa2Z7hbWcxTGsyU09HSTg/edit?pli=1 | last=Ulam|first=Stanislaw |title=Tribute to John von Neumann|publisher=Bulletin of the American Mathematical Society|volume=64, #3, part 2|date=May 1958|page=5}}</ref>
<ref name="moreblades">{{Citation |title=More blades good |author=Anonymous |newspaper=The Economist |date=18 de marzu de 2006 |url=http://www.economist.com/science/displaystory.cfm?story_id=5624861 |location=London |page=85 |volume=378
<ref name="nickbostrom">{{cite web|url=http://www.nickbostrom.com/existential/risks.html|title=Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards|work=nickbostrom.com}}</ref>
Llinia 412:
| postscript = .}}
* {{Citation
|first
|last
|authorlink
|title
|journal
|volume
|pages
|publisher
|editors
|url
|accessdate
|doi
|series
|archiveurl
|archivedate = 27 de mayu de 2001
}}
* {{Citation
|url
|title
|first
|last
|author-link = Robin Hanson
|year
|publisher
|accessdate
|archiveurl
|archivedate = 28 d'agostu de 2009
}}
Llinia 494:
}}
* {{Citation
|last
|first
|last2
|first2
|date =
|title
|periodical
|pages
|url
|format
|accessdate
|doi
|issue
|arxiv
|bibcode
|archiveurl
|archivedate = 29 de payares de 2007
}}
Llinia 581:
}}
* {{Citation
|last
|authorlink
|title
|year
|url
|archiveurl
|archivedate = 4 d'ochobre de 2006
}}
* {{Citation
|url
|title
|last
|year
|accessdate
|archiveurl
|archivedate = 23 de marzu de 2011
}}
* {{Citation
|last
|title
|year
|url
|accessdate
|archiveurl
|archivedate = 30 d'avientu de 2007
}}
|