Diferencies ente revisiones de «Singularidá teunolóxica»
Contenido eliminado Contenido añadido
m Iguo testu: -"riegla" +"regla" |
m Preferencies llingüístiques |
||
Llinia 94:
L'analís de Kurzweil a partir de la [[llei de rendimientos aceleraos]] (del inglés ''Law of Accelerating Returns'') identifica que cada vez que la teunoloxía averar a una barrera, les nueves teunoloxíes la supererán. Presumiblemente, una singularidá teunolóxica llevaría a un rápidu desenvolvimientu d'una [[Escala de Kardashov|civilización Kardashev Tipu I]], que llogró'l dominiu de los recursos del so planeta d'orixe.<ref name="civilization" />
Peligros frecuentemente citaos inclúin a los asociaos comúnmente cola nanoteunoloxía molecular y l'inxeniería xenética. Estes amenaces son los principales problemes pa los dos defensores y críticos de la singularidá, que fueron oxetu d'artículu de la revista ''[[Wired]]'' de Bill Joy "Por qué'l futuru nun nos precisa" (“Why the future
La Acceleration Studies Foundation (al español, Fundación d'Estudios d'Aceleración), una fundación educativa ensin fines d'arriquecimientu fundada por [[John Smart]], dedicada a la divulgación, la educación, la investigación y a la defensa en relación cola aceleración del cambéu.<ref>{{Harv|Acceleration Studies Foundation|2007}}</ref> Nella produz la conferencia sobre l'aceleración del cambéu (Accelerating Change) na Universidá de Stanford, y caltién el sitiu educativu [http://www.accelerationwatch.com/ Aceleration Watch.]
Llinia 141:
=== Midíes de seguridá - ¿Teunoloxía amigable? ===
Per otru llau, dalgunos sofiten el diseñu de la intelixencia artificial atenta, lo que significa que les meyores que yá se tán produciendo cola IA tamién tienen d'incluyir un
Por casu, nel 2004 l'Institutu d'Investigación n'Intelixencia de la Máquina llanzó una campaña n'Internet llamada “3 Lleis insegures” pa crear concencia sobre los problemes de seguridá de la IA y la insuficiencia de les lleis de Asimov en particular.<ref>{{Harv|Singularity Institute for Artificial Intelligence|2004}}</ref>
Llinia 159:
El 1996 la novela “''Holy Fire''” por [[Bruce Sterling]] esquiza dalgunos d'eses temes y postula qu'un Methuselarity va convertir nuna [[xerontocracia]].
Na novela de [[William Gibson]] de 1984 “''[[Neuromancer]]''”, intelixencies artificiales capaces d'ameyorar los sos propios programes tán puramente regulaes pola especial "policía de Turing" p'asegurase de que nun superen un ciertu nivel d'intelixencia, y la trama centrar nos
Nel cuentu de [[Harlan Ellison]] “[[Nun tengo boca y tengo de glayar|I Have Non Mouth, and I Must Scream]]” (1967), una IA malévola llogra omnipotencia.
Llinia 192:
<ref name="Hanson">{{Citation |url=http://www.spectrum.ieee.org/robotics/robotics-software/economics-of-the-singularity |title= Economics Of The Singularity |accessdate=11 de setiembre de 2008 |author= Robin Hanson |work=IEEE Spectrum Special Report: The Singularity }} & [http://hanson.gmu.edu/longgrow.pdf Long-Term Growth As A Sequence of Exponential Modes]</ref>
<ref name="JoyFuture">{{Citation | first=Bill | last=Joy | authorlink=Bill Joy | title=Why the future
<ref name="PZMyers">{{Citation |url=http://scienceblogs.com/pharyngula/2009/02/singularly_silly_singularity.php |title=Singularly Silly Singularity |accessdate=13 d'abril de 2009 |first1=PZ |last1=Myers |urlarchivo=https://web.archive.org/web/20090228161422/http://scienceblogs.com/pharyngula/2009/02/singularly_silly_singularity.php |fechaarchivo=28 de febreru de 2009 }}</ref>
|