Diferencies ente revisiones de «Singularidá teunolóxica»

Contenido eliminado Contenido añadido
m Iguo testu: -"riegla" +"regla"
m Preferencies llingüístiques
Llinia 94:
L'analís de Kurzweil a partir de la [[llei de rendimientos aceleraos]] (del inglés ''Law of Accelerating Returns'') identifica que cada vez que la teunoloxía averar a una barrera, les nueves teunoloxíes la supererán. Presumiblemente, una singularidá teunolóxica llevaría a un rápidu desenvolvimientu d'una [[Escala de Kardashov|civilización Kardashev Tipu I]], que llogró'l dominiu de los recursos del so planeta d'orixe.<ref name="civilization" />
 
Peligros frecuentemente citaos inclúin a los asociaos comúnmente cola nanoteunoloxía molecular y l'inxeniería xenética. Estes amenaces son los principales problemes pa los dos defensores y críticos de la singularidá, que fueron oxetu d'artículu de la revista ''[[Wired]]'' de Bill Joy "Por qué'l futuru nun nos precisa" (“Why the future doesn’tdoesn't need us”)<ref>{{Harv|Joy|2000}}</ref>
 
La Acceleration Studies Foundation (al español, Fundación d'Estudios d'Aceleración), una fundación educativa ensin fines d'arriquecimientu fundada por [[John Smart]], dedicada a la divulgación, la educación, la investigación y a la defensa en relación cola aceleración del cambéu.<ref>{{Harv|Acceleration Studies Foundation|2007}}</ref> Nella produz la conferencia sobre l'aceleración del cambéu (Accelerating Change) na Universidá de Stanford, y caltién el sitiu educativu [http://www.accelerationwatch.com/ Aceleration Watch.]
Llinia 141:
 
=== Midíes de seguridá - ¿Teunoloxía amigable? ===
Per otru llau, dalgunos sofiten el diseñu de la intelixencia artificial atenta, lo que significa que les meyores que yá se tán produciendo cola IA tamién tienen d'incluyir un esfuerzuesfuerciu por que la IA sía intrínsecamente atenta y humana.<ref name="asimovlaws">[http://www.asimovlaws.com/articles/archives/2004/07/why_we_need_fri_1.html Article at Asimovlaws.com], July 2004, accessed 7/27/2009.</ref> De [[Isaac Asimov]], “les [[Tres Ley de la Robótica]]” ye unu de los primeros exemplos de midíes de seguridá propuestes pa la IA. Les lleis tán destinaes a prevenir que los robots d'intelixencia artificial estropien a los seres humanos. Nes hestories de Asimov, los problemes percibíos coles lleis tienden a surdir como resultáu d'un tracamundiu per parte de dalgún operador humanu; los mesmos robots tán a cencielles actuando pa la so meyor interpretación de les sos normes.
 
Por casu, nel 2004 l'Institutu d'Investigación n'Intelixencia de la Máquina llanzó una campaña n'Internet llamada “3 Lleis insegures” pa crear concencia sobre los problemes de seguridá de la IA y la insuficiencia de les lleis de Asimov en particular.<ref>{{Harv|Singularity Institute for Artificial Intelligence|2004}}</ref>
Llinia 159:
El 1996 la novela “''Holy Fire''” por [[Bruce Sterling]] esquiza dalgunos d'eses temes y postula qu'un Methuselarity va convertir nuna [[xerontocracia]].
 
Na novela de [[William Gibson]] de 1984 “''[[Neuromancer]]''”, intelixencies artificiales capaces d'ameyorar los sos propios programes tán puramente regulaes pola especial "policía de Turing" p'asegurase de que nun superen un ciertu nivel d'intelixencia, y la trama centrar nos esfuerzosesfuercios d'unu de la IA pa refugar el so control.
 
Nel cuentu de [[Harlan Ellison]] “[[Nun tengo boca y tengo de glayar|I Have Non Mouth, and I Must Scream]]” (1967), una IA malévola llogra omnipotencia.
Llinia 192:
<ref name="Hanson">{{Citation |url=http://www.spectrum.ieee.org/robotics/robotics-software/economics-of-the-singularity |title= Economics Of The Singularity |accessdate=11 de setiembre de 2008 |author= Robin Hanson |work=IEEE Spectrum Special Report: The Singularity }} & [http://hanson.gmu.edu/longgrow.pdf Long-Term Growth As A Sequence of Exponential Modes]</ref>
 
<ref name="JoyFuture">{{Citation | first=Bill | last=Joy | authorlink=Bill Joy | title=Why the future doesn’tdoesn't need us | journal=[[Wired (magacín)|Wired Magacín]] | date= April 2000 | issue=8.04 | url=http://www.wired.com/wired/archive/8.04/joy.html | accessdate=7 d'agostu de 2007 | isbn=0-670-03249-2 | publisher=Viking Adult }}</ref>
 
<ref name="PZMyers">{{Citation |url=http://scienceblogs.com/pharyngula/2009/02/singularly_silly_singularity.php |title=Singularly Silly Singularity |accessdate=13 d'abril de 2009 |first1=PZ |last1=Myers |urlarchivo=https://web.archive.org/web/20090228161422/http://scienceblogs.com/pharyngula/2009/02/singularly_silly_singularity.php |fechaarchivo=28 de febreru de 2009 }}</ref>