Diferencies ente revisiones de «Singularidá teunolóxica»

Contenido eliminado Contenido añadido
m iguo nome de plantía
m iguo parámetros de plantía
Llinia 1:
La '''singularidá teunolóxica''' ye'l advenimiento hipotéticu d'intelixencia artificial xeneral (tamién conocida como "[[IA fuerte]]", del inglés ''strong AI''). La singularidá teunolóxica implica qu'un equipu de cómputu, rede informática, o un robot podríen ser capaces d'autu-ameyorase recursivamente, o nel diseñu y construcción d'ordenadores o robots meyores qu'él mesmu. Dizse que les repeticiones d'esti ciclu probablemente daríen llugar a un efeutu fora de control -una esplosión d'intelixencia<ref name="Singularity, Intelligence Explosion 2010">Chalmers, David. [https://web.archive.org/web/20120421121903/http://singinst.org/blogue/2010/04/08/david-chalmers-on-singularity-intelligence-explosion/ «Singularity, Intelligence Explosion.» 8 d'abril de 2010.] Singularity Institute for Artificial Intelligence.</ref><ref>[http://hplusmagazine.com/2011/03/07/why-an-intelligence-explosion-is-probable/ Editor's Blogue Why an Intelligence Explosion is Probable], by Richard Loosemore and Ben Goertzel. March 7, 2011; hplusmagazine.</ref>, onde les máquines intelixentes podríen diseñar xeneraciones de máquines socesivamente cada vez más potentes, la creación d'intelixencia bien cimera al control y la capacidá intelectual humana.<ref>{{cite book | title=The Techno-human Shell-A Jump in the Evolutionary Gap | publisher=Sunbury Press | author=Carvalko, Joseph | year=2012 | isbn=978-1620061657}}</ref>
 
La singularidá teunolóxica va causar, según [[Albert Cortina]] y [[Miquel-Ángel Serra]], cambeos sociales inimaxinables, imposibles d'entender o de predicir por cualesquier humanu. Nesa fase de la evolución producirá la fusión ente teunoloxía y tamién intelixencia humana, onde la teunoloxía va apoderar los métodos de la bioloxía hasta dar llugar a una era en que se va imponer la intelixencia non biolóxica de los posthumanos, que se va espandir pol universu. <ref>{{cita llibru|apellido=Cortina y Serra|nome=Albert y Miquel-Àngel|enlaceautor=|títulu=¿Humanos o Posthumanos?, singularidá teunolóxica y meyoramientu humanu|url=http://www.fragmenta.cat/%C3%ADndice-y-fragmentu_358616.pdf|fechaaccesu=|añu=2015|editorial=|isbn=|editor=|ubicación=|páginapáxina=|idioma=|capítulu=Capítulu 1 de ¿Humanos o posthumanos? Singularidá teunolóxica y meyoramientu humanu.}}</ref>
 
== Orixe ==
Llinia 45:
 
== Predicciones ==
Dellos autores dedicar a predicir cuándo esta singularidá va asoceder. Per un sitiu el científicu ya inventor [[Raymond Kurzweil]] nel so llibru [[La Singularidá ta cerca|La singularidá esta cerca]], alviértenos qu'esti fenómenu va asoceder alredor del añu 2045 y prediz un ascensu gradual a la singularidá.<ref name=":0">{{cita llibru|apellíos=Kurzweil|nome=Ray|enlaceautor=|títulu=La singularidá ta cerca, cuando los humanos tescendemos la bioloxía|url=|fechaaccesu=|añu=2005|editorial=Lola Books|isbn=|editor=|ubicación=|páginapáxina=|idioma=|capítulu=}}</ref> Aquel momentu onde s'espera que les intelixencies basaes na informática entepasen significativamente la suma total de la capacidá intelectual humana, la escritura de les meyores na computación antes d'esa fecha "nun va representar a la Singularidá" porque nun lo faen "pa corresponder a una fonda espansión de la nuesa intelixencia."<ref>{{cite journal|last=Kurzweil|first=Ray|title=The singularity: The last word – [forum]|journal=IEEE|date=10 d'ochobre de 2008|volume=45|page=10|doi=10.1109/MSPEC.2008.4635038|url=http://ieeexplore.ieee.org.mutex.gmu.edu/stamp/stamp.jsp?tp=&arnumber=4635038&isnumber=4635032&tag=1|accessdate=2 d'ochobre de 2013}}</ref> En 2011, Kurzweil díxo-y a la revista Time: "Nós reveriremos l'ésitu de la inxeniería del celebru humanu a mediaos de la década de 2020. A finales d'esa década, ordenadores van ser capaces de tener una intelixencia a nivel humanu".<ref>{{cite web|url=http://www.questionablecontent.net/view.php?comic=1780|title=They've Had AI Since 1996|website=Questionable Content|accessdate=9 de xunu de 2015|author=Jacques, Jeph}}</ref>
 
Per otru llau [[Vernor Vinge]] predicir 15 años menos, nel 2030. Esto difier dafechu con Kurzweil yá que prediz un ascensu gradual a la singularidá, en llugar d'un autu-ameyora rápida de la intelixencia sobrehumana de Vinge. Pa él hai cuatro maneres en que la singularidá podría asoceder:<ref name="JoyFuture" />
Llinia 62:
 
=== Esplosión d'intelixencia ===
La [[IA fuerte]] podría llegar a provocar, tal como lo espresa [[I. J. Good|Irving John Good]], una esplosión d'intelixencia”.<ref>{{cita llibru|apellíos=Good|nome=I.J|enlaceautor=|títulu=Speculations Concerning the First Ultraintelligent Machine|url=|fechaaccesu=|añu=1950|editorial=|isbn=|editor=|ubicación=|páginapáxina=|idioma=|capítulu=Advances in Computers, vol. 6.}}</ref> A pesar de que'l progresu teunolóxicu aceleróse, viose llindáu pola intelixencia básica del celebru humanu, que nun tuvo, según [[Paul R. Ehrlich]], un cambéu significativu mientres los últimos milenios.<ref name="Paul Ehrlich June 2008" /> Por aciu el creciente poder de los ordenadores y otres teunoloxíes, podría ser posible construyir una máquina más intelixente que la humanidá.<ref>{{cita llibru|apellíos=Shajahan|nome=S|enlaceautor=|títulu=Management Information Systems|url=|fechaaccesu=|añu=2007|editorial=New Age International|isbn=|editor=|ubicación=|páginapáxina=|idioma=|capítulu=}}</ref> Lo siguiente consiste nuna intelixencia sobrehumana –inventada yá sía al traviés de l'amplificación de la intelixencia humana o al traviés de la intelixencia artificial– capaz d'apurrir un mayor resolución de problemes y habilidaes maxinos, y de diseñar una máquina meyor, más intelixente (autu-ameyora recursiva). Estes iteraciones d'autu-ameyora recursiva podríen acelerar, dexando potencialmente un enorme cambéu cualitativu primero que les llendes cimeres impuestos poles lleis de la física o de cálculu teóricu fueren fitos.<ref name="ultraintelligent" /><ref name="acceleratingfuture" /><ref name="ultraintelligent1" />
 
=== Superinteligencia ===
Llinia 106:
 
=== Sobre la economía ===
L'investigador futurista [[Martin Ford]] postula qu'antes de la singularidá podríen asoceder ciertos trabayos rutinarios onde la economía seria automatizada, lo que provocaría un desempléu masivu y la cayida de la demanda del consumidor, polo qu'esto destruyiría l'incentivu pa invertir nes teunoloxíes necesaries por que se lleve a cabu la singularidá.<ref>{{cita llibru|apellíos=Ford|nome=Martin|enlaceautor=|títulu=The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future|url=|fechaaccesu=|añu=2009|editorial=Acculant|isbn=978-1-4486-5981-4|editor=|ubicación=|páginapáxina=|idioma=|capítulu=}}</ref>
 
L'escritor estauxunidense [[Jaron Lanier]], tamién fala redolada a la teunoloxía, refutando la idea de que la singularidá ye inevitable. Postula que la teunoloxía ta creándose a sigo mesma y nun ye un procesu nel anonimatu. Afirma que la única razón pa creer na aición humana sobre la teunoloxía ye que pueda tener una economía onde les persones ganen el so propiu camín ya inventen les sos propies vides; si s'estructura una sociedá ensin faer énfasis na aición humana individual, seria lo mesmo que negar a les persones influyentes la dignidá y l'autodeterminación. "Singularidá como una celebración de mal gustu y mala política".<ref>{{cita llibru|apellíos=Lanier|nome=Jaron|enlaceautor=|títulu=Who Owns the Future?|url=|fechaaccesu=|añu=2013|editorial=Simon & Schuster|isbn=|editor=|ubicación=|páxina=328|idioma=|capítulu=}}</ref>
Llinia 115:
 
=== Retrocesu teunolóxicu ===
El xeógrafu [[Jared Diamond]] fala d'un retrocesu teunolóxicu que imposibilitará la singularidá. Sostien que cuando les cultures autu-limitantes superen la capacidá de carga sostenible de la so redolada, y el consumu de los recursos estratéxicos (madera, suelos o agua) van crear una retroalimentación positiva deletérea repetitiva que conduciría finalmente al colapsu social.<ref>{{cita llibru|apellíos=Diamond|nome=Jared|enlaceautor=|títulu=Collapse: How Societies Choose to Fail or Succeed|url=|fechaaccesu=|añu=2005|editorial=Viking|isbn=0-14-303655-6|editor=|ubicación=|páginapáxina=|idioma=Inglés|capítulu=}}</ref> A esta mesma idea de retrocesu teunolóxicu sumir los físicos [[Theodore Modis]]<ref name="google13" /><ref name="Singularity Myth" /> y [[Jonathan Huebner]]<ref name="technological14" />. Ellos almiten que la invocación teunolóxica aumenta pero esta en descensu pola xubida de les [[Frecuencia de reloj|frecuencies de reló]] de los ordenadores ta retrasándose, anque la predicción de Moore, que la densidá del circuitu sigue calteniéndose con un aumentu esponencial. Esto ye por cuenta de la escesiva acumuladura de calor dende'l chip, que nun puede estenar lo suficientemente rápido pa evitar qu'el chip se derrita cuando s'opera a altes velocidaes. Les meyores na velocidá pueden ser posibles nel futuru, en virtú de más diseños de CPU energéticamente eficientes y procesadores de multi-celdes.<ref name="cnet" /> Ente que Kurzweil utiliza los recursos y trabayos de Modis, alredor de l'aceleración del cambéu, Modis alloñar de la tesis de Kurzweil d'una "singularidá teunolóxica", alegando qu'escarez de rigor científico.<ref name="Singularity Myth" />
 
Finalmente, l'empresariu estauxunidense, [[Paul Allen]] argumenta lo contrario sobre les tornes aceleraes, el frenu de la complexidá;<ref name="Allen" /> afirmando que la ciencia más avanzada escontra la comprensión fai que la intelixencia fáigase más difícil, y sería pa faer progresos adicionales. Un estudiu sobre la cantidá de patentes amuesa que la creatividá humana nun amuesa tornes aceleraes, pero ello ye que como suxure Joseph Tainter nel so artículu “El Colapsu de les Sociedaes Complexes” (del inglés, The Collapse of Complex Societies),<ref name="university" /> una llei de rendimientos decrecientes. El númberu de patentes per cada mil algamó'l so puntu máximu nel periodu de 1850 a 1900, y foi menguando dende entós.<ref name="technological14" /> La crecedera de la complexidá col tiempu apuerta a autolimitada, y conduz a un xeneralizáu "colapsu xeneral de sistemes". <ref name=":2">{{Cita publicación|url=https://www.technologyreview.com/s/425733/paul-allen-the-singularity-isnt-near/|títulu=The Singularity Isn't Near|apellíos=Allen|nome=Paul|fecha=|publicación=12 d'ochobre de 2011|fechaaccesu=10 d'ochobre de 2017|doi=|pmid=}}</ref>