Página 1 de 3

Stephen Hawking: "La I.A. puede ser el peor error de la huma

Publicado: Jue May 08, 2014 6:09 pm
por eduardo dd
Stephen Hawking: "La I.A. puede ser el peor error de la humanidad"

Imagen

http://es.gizmodo.com/stephen-hawking-l ... 1571328845
Parece que nos somos los únicos en sentir un cierto reparo hacia la idea de construir una máquina inteligente capaz de pensar por si misma. El laureado físico Stephen Hawking no ha dudado en calificar a la Inteligencia Artificial, o I.A. como el peor error que podría cometer la humanidad, y probablemente el último.

Hawking no se muestra abiertamente contrario a las investigaciones en este campo, pero cree que la comunidad científica no se está preocupando lo suficiente por mantener bajo control un eventual sistema de inteligencia artificial el día que se descubra. El físico ha publicado un artículo conjunto con el especialista en computación Stuart Russell, y los físicos Max Tegmark y Frank Wilczek. Estas son sus palabras. Podéis leer artículo completo (en inglés) aquí. [vía The Independent]

Si miramos hacia el futuro, no hay límites a lo podemos lograr en este campo [I.A.]. No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se re-ordenen a sí mismas para realizar cálculos más complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apuntó en 1965, un sistema de inteligencia artificial puede decidir mejorar su propio diseño por su cuenta, dando lugar a lo que Vernor Vinge denominó una singularidad, o lo que Johny Depp llama Trascendencia en la reciente película que protagoniza.

No es difícil imaginar una tecnología semejante dominando completamente los mercados financieros, sobrepasando los diseños de sus propios creadores, manipulando líderes, o encontrando maneras de construir armas que no seríamos capaces ni de comprender. Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos.

Estamos ante un futuro de incalculables posibilidades, oportunidades y riesgos. Es lógico pensar que los científicos están tomando todas las precauciones para asegurar el mejor resultado posible, ¿verdad? Pues no es así. ¿Si una civilización del espacio exterior nos enviara un mensaje diciendo: "Llegamos en unos años", nuestra respuesta sería: "¡Ok! Avisadnos cuando estéis llegando para dejar las luces encendidas"? Probablemente no, pero eso es más o menos lo que está ocurriendo con la inteligencia artificial. Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se están investigando seriamente sus implicaciones Las únicas organizaciones que están estudiando esto son el Centro Cambridge para el estudio del riesgo existencial, el Instituto para el futuro de la humanidad, el Centro de Investigación de Inteligencia Artificial, o el Instituto Vida Futura. Todos nosotros deberíamos preguntarnos desde hoy mismo qué puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Vie May 09, 2014 11:30 am
por JohnyFK
Esto tampoco es nada nuevo. Ya se ha planteado en innumerables obras de ciencia ficción.

La visión de los más optimistas apunta a que acabarán como unos seres muy superiores al ser humano y que alcanzarán el potencial de dioses comparados con el nuestro, y al final deciden acunarnos bajo su protección. La de los más pesimistas es la misma pero en cambio nos terminan considerando como prescindibles, despreciables o simplemente molestos, por lo que deciden eliminarnos o abandonarnos a nuestra suerte.

La visión común entre las dos vertientes es que su potencial terminará escapándose de nuestro control tarde o temprano y no podremos evitar que las inteligencias artificiales decidan por sí mismas, tal y como apunta Stephen, con las consecuencias que ello conlleve.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Vie May 09, 2014 12:33 pm
por Wilalgar
Ya son dos cosas en las que coincido con este hombre, en su opinión de que estamos cometiendo un error anunciándonos en el espacio sin control (la esfera radial de la Tierra ya tiene ciento sesenta años-luz de diámetro) y en su opinión sobre la IA.

En ambos casos estamos apostando nuestras vidas a que ambas inteligencias (la posible inteligencia extraterrestre y la IA) sean benignas hacia nosotros, pero la verdad, ni nosotros mismos seríamos benignos con una inteligencia distinta a la nuestra y tan destructiva y belicosa como somos nosotros.

Como puso una vez de ejemplo, estamos en una casa encendiendo todas las luces y armando un escándalo tremendo y ni siquiera sabemos en qué barrio está ubicada nuestra casa. Si tenemos suerte estaremos en un bonito barrio residencial lleno de vecinos amables, pero perfectamente puede suceder que estemos en un suburbio lleno de traficantes de droga, ladrones y asesinos... y terminarán escuchándonos y vendrán a visitarnos con intenciones no demasiado buenas. Pues con esto estamos criando a un niño que no sabemos si es un psicópata asesino o un estudiante modelo, y le estamos dejando los cuchillos a mano.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Vie May 09, 2014 2:18 pm
por JohnyFK
Wilalgar, en cuanto al tema de nuestros vecinos extraterrestres yo lo veo de la siguiente manera. Por lo que se está descubriendo últimamente, es muy normal encontrar planetas en una proporción considerable de estrellas, y no es una locura poder afirmar que muchas de ellas deben de tener planetas con condiciones óptimas para la vida. También hay que tener en cuenta que nuestra estrella es bastante joven, y que hay estrellas muchísimo más antiguas en las que han podido existir o existen formas de vida inteligente, tras lo cual yo saco la siguiente conclusión. Dada la inmensa probabilidad de que existan innumerables planetas con vida y seguramente en algunos casos con vida inteligente, el que no hayamos recibido visita ya, puede responder a dos razones. La primera es que los viajes interestelares son muchísimo más difíciles de realizar de lo que podamos imaginar, y por lo tanto que una forma de vida extraterrestre lo haya conseguido es muy muy poco probable, o que para conseguirlos se requiere un nivel de inteligencia y de evolución tal, que no causemos más interés en los que lo han conseguido que el que nos causa un hormiguero cuando nos lo cruzamos por la calle.

En cualquier caso todo esto son simples impresiones mías, y tampoco me preocupa demasiado porque veo mucho más probable una autodestrucción de nuestra civilización que una destrucción por agentes externos.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Vie May 09, 2014 10:27 pm
por Vitriólico
A ver .... vosotros qué creéis más probable: ¿que podamos viajar a dudosos planetas situados a miles de años-luz -en el mejor de los casos- o que antes nos vayamos a la mierda en éste vía desastre ecológico, superpoblación y consiguiente guerra, virus o cometa?
No deja de hacerme gracia la extraña y cinematográfica fe que profesan algunos ateos ....

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Sab May 10, 2014 6:05 pm
por Wilalgar
Ah, respecto a la Humanidad tengo bastante claro que no llegaremos a las estrellas porque antes de eso nuestra civilización sucumbirá de una u otra forma, y aunque la Humanidad siga existiendo su máxima tecnología será el arco y las flechas, sobre todo porque si nuestra civilización sucumbe no podrá resurgir otra más adelante, pues ya hemos consumido y procesado la mayor parte de productos necesarios para que eso se produzca, y lo que queda está demasiado profundo en la tierra como para alcanzarlo sin tecnología. Yo veo el futuro de la Humanidad como una interminable Edad de Piedra.

Pero veo posible otras mentalidades diferentes a la humana que hayan tenido la misma suerte que nosotros (varios millones de años sin desastres catastróficos) y el suficiente sentido común como para no autodestruirse. No digo que existan, no hay pruebas de ello, pero lo veo posible. Los delfines están muy bien sin atacarse como lo hacemos nosotros y son al menos tan inteligentes como nosotros...
Y de existir esos alienígenas, es precisamente lo que me preocupa, que sean tan diferentes a nosotros que nos consideren un peligro inaceptable (por muy pocas posibilidades que tengamos de expandirnos por el espacio) y nos ayuden amablemente en nuestros esfuerzos por extinguirnos.

La verdad, si yo fuera un alienígena lo haría.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Sab May 10, 2014 8:27 pm
por bukowski
Wilalgar escribió:Ah, respecto a la Humanidad tengo bastante claro que no llegaremos a las estrellas porque antes de eso nuestra civilización sucumbirá de una u otra forma, y aunque la Humanidad siga existiendo su máxima tecnología será el arco y las flechas, sobre todo porque si nuestra civilización sucumbe no podrá resurgir otra más adelante, pues ya hemos consumido y procesado la mayor parte de productos necesarios para que eso se produzca, y lo que queda está demasiado profundo en la tierra como para alcanzarlo sin tecnología. Yo veo el futuro de la Humanidad como una interminable Edad de Piedra.

Pero veo posible otras mentalidades diferentes a la humana que hayan tenido la misma suerte que nosotros (varios millones de años sin desastres catastróficos) y el suficiente sentido común como para no autodestruirse. No digo que existan, no hay pruebas de ello, pero lo veo posible. Los delfines están muy bien sin atacarse como lo hacemos nosotros y son al menos tan inteligentes como nosotros...
Y de existir esos alienígenas, es precisamente lo que me preocupa, que sean tan diferentes a nosotros que nos consideren un peligro inaceptable (por muy pocas posibilidades que tengamos de expandirnos por el espacio) y nos ayuden amablemente en nuestros esfuerzos por extinguirnos.

La verdad, si yo fuera un alienígena lo haría.
Bueno, los delfines no son tan adorables como parecen, se suelen dar casos de violaciones a hembras por grupos de machos, o de ataques a focas de manera indiscriminada. Son lo que se dice unos mamíferos muy "humanos" en el sentido despectivo de la palabra.

En cuanto al tema de los alienígenas, hay que tener en cuenta que aunque existan, sean inteligentes y tengan la tecnología suficiente para detectarnos y visitarnos, como especie llevamos muy poco tiempo haciendo ruido. El tiempo que llevamos en el planeta es ínfimo, y no hace ni 50 años que pudimos visitar la luna. ¿Qué son 50 años en comparación con la edad universo? nada. Y a pesar de ser nada casi nos vamos al carajo en la crisis de Cuba. Si son algo listos es normal que como dicen otros foreros no tengamos ningún interés para ellos. Me imagino a un bicho verde diciéndole a otro "¿Para que echar el viaje? si lo mismo cuando lleguemos ya se han matado". Como especie todavía tenemos mucho que demostrar, y estoy seguro de que no somos tan especiales y únicos como pensamos.

Y volviendo ya del offtopic, a mí siempre me ha fascinado el tema de la I.A. porque nos hace plantearnos qué es lo que realmente nos hace humanos, pero me cuesta mucho hacer cualquier hipótesis acerca de su futuro. Todavía quedan muchos misterios en cuanto al funcionamiento de nuestro cerebro como para planterarme los de la I.A.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Dom May 11, 2014 10:09 am
por eduardo dd
Retomando el tema de la IA (aquí tenéis el hilo de extraterrestres viewtopic.php?f=3&t=8395&p=91685&hilit= ... ing#p91685)

-------------------------------------------------------------------------------------

Creo que esta es la clave:
La cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos.


¿Se puede impedir que "aprendan"? si. ¿Que aprendan solo en un campo limitado en el área deseada? supongo que también.

En mi opinión la clave es la carrera de gobiernos y empresas por hacerse con la tecnología; la libre competencia y las patentes no admiten prudentes demoras y controles.

Como dijo Eudald Carbonell: "Hemos construido un mundo competitivo y no un mundo competente y ahora nos toca construir un mundo con competencias, llevo diciéndolo hace más de 30 años. A la gente competente nunca la verás competir, sólo compiten los incompetentes y esta especie sólo será competente cuando no compita entre sí, cuando no haya lucha de clases, cuando esta historia que hemos conocido sea una historia del pasado".

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Lun May 12, 2014 10:14 am
por JohnyFK
No se. Yo la competencia la veo una forma de avance, siempre y cuando sea de forma sana. ¿Acaso muchas de las investigaciones de Newton que impulsaron enormemente la ciencia moderna no fueron fruto de un reto?

En cuanto a considerar a la IA humana o no... primero ¿qué es ser humano? si lo consideras como pertenecer a nuestra especie por supuesto que no serían humanos, pero si con humano te refieres a seres autoconscientes no veo ningún disparate considerar que es posible. ¿A caso importa que un sistema tan complejo como nosotros sea fruto de millones de años de cincelado evolutivo o de una investigación científica?

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Lun May 12, 2014 11:21 am
por eduardo dd
JohnyFK escribió:No se. Yo la competencia la veo una forma de avance, siempre y cuando sea de forma sana. ¿Acaso muchas de las investigaciones de Newton que impulsaron enormemente la ciencia moderna no fueron fruto de un reto?
Los grandes proyectos son pura colaboración científica; ISS, LCH,ADN humano etc. La IA desde luego lo es, Hawking con el especialista en computación Stuart Russell, y los físicos Max Tegmark y Frank Wilczeknos nos avisan:
Estamos ante un futuro de incalculables posibilidades, oportunidades y riesgos. Es lógico pensar que los científicos están tomando todas las precauciones para asegurar el mejor resultado posible, ¿verdad? Pues no es así.

Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se están investigando seriamente sus implicaciones Las únicas organizaciones que están estudiando esto son el Centro Cambridge para el estudio del riesgo existencial, el Instituto para el futuro de la humanidad, el Centro de Investigación de Inteligencia Artificial, o el Instituto Vida Futura. Todos nosotros deberíamos preguntarnos desde hoy mismo qué puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor.
JohnyFK escribió:En cuanto a considerar a la IA humana o no... primero ¿qué es ser humano? si lo consideras como pertenecer a nuestra especie por supuesto que no serían humanos, pero si con humano te refieres a seres autoconscientes no veo ningún disparate considerar que es posible. ¿A caso importa que un sistema tan complejo como nosotros sea fruto de millones de años de cincelado evolutivo o de una investigación científica?
¿Te refieres a mi? Porque ni pienso eso, ni lo he escrito -el ser humano esta sobre valorado, y la auto consciencia abunda en el reino animal (resumidamente)-.

Saludos.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Lun May 12, 2014 4:10 pm
por JohnyFK
eduardo dd escribió: ¿Te refieres a mi? Porque ni pienso eso, ni lo he escrito -el ser humano esta sobre valorado, y la auto consciencia abunda en el reino animal (resumidamente)-.
Perdona Eduardo. En mi último párrafo me refería a éste de bukowski:
bukowski escribió: Y volviendo ya del offtopic, a mí siempre me ha fascinado el tema de la I.A. porque nos hace plantearnos qué es lo que realmente nos hace humanos, pero me cuesta mucho hacer cualquier hipótesis acerca de su futuro. Todavía quedan muchos misterios en cuanto al funcionamiento de nuestro cerebro como para planterarme los de la I.A.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Vie Jun 06, 2014 10:26 pm
por Andarin
Con respecto a la inteligencia artificial tengo una pregunta que me parece crucial ¿puede un hombre, o un grupo de hombres, construir una máquina más inteligente que él o ellos?. A mi me parece que no, que podría ser infinitamente mucho más inteligente en un montón de campos aislados, pero que en la interacción y control de todos los posibles campos de la inteligencia siempre saldría ganando la mente o la cooperación de las mentes que la crearon.

También quiero suponer que en todo el proceso de investigación y desarrollo de la IA nos daremos cuenta de alguna particularidad básica y necesaria que no se puede añadir para asegurarnos que la máquina nunca pueda llegar a colocarse en competencia directa y peligrosa con los humanos. Aunque claro, a lo mejor es mucho suponer habida cuenta de que ya nos hemos encargado de crear y llenar el planeta de armas nucleares que nos podrían aniquilar en un instante, varias veces .....

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Lun Jun 16, 2014 3:41 pm
por skeptic
Alguien ya hizo cálculos sobre posibles causas de nuestra extinción y el principal riesgo creo recordar que estaba en las armas biológicas o nanotecnológicas fuera de control.

Creo que tenemos varios frentes abiertos.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Mar Jun 17, 2014 8:57 am
por JohnyFK
Si. Está claro que somos la especie del planeta a la que mejor se le da buscar formas de atoextinción.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Jue Jun 04, 2015 12:58 am
por SololaVerdad
.
*** ¿No hay un poco de intensa paranoia en algo tan simple como NO dejar que todo se siga regulando solo, sin
ayuda, tal como lleva más de cien millones de años ocurriendo? Tengamos más confianza en la Materia y en su
sabia manera de llevar las cosas. Mi poca Inteligencia no es mía; es de la especie. Y no es nada natural. Es 100%
artificial, fue tomada de las cosas, de los libros, de la práctica, del aprendizaje y el entrenamiento y, con res-
pecto al cableado, es solo consecuencia de prueba y error, continuos. En consecuencia: Yo soy una máquina
rara, (al igual que ustedes) como todas las máquinas VIVAS, pero máquina al fin. Y es muy evidente, al menos
para mí, que el AZAR me hizo y me moldeó como se le fue dando, siglo tras siglo por prueba y error, sin ninguna
dirección superior, ni divina, ni mágica, ni celestial, etc. Lo novedoso es que ahora el Azar ya no trabaja solo. Le
ayudamos nosotros, sus algo perfeccionadas creaciones. Entonces, en el fondo, todo sigue siendo creado por él,
o sea, artificial: Materia cada vez más organizada. Pero Materia, solo Materia, al fin…
.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Jue Jun 04, 2015 8:17 am
por JohnyFK
SololaVerdad,,,, no me ha quedado claro con lo que has dicho... ¿estas apoyando la regulación artificial humana del medio ambiente o estas apoyando dejar que la naturaleza se autorregule sola como ha hecho siempre? Dejando a un lado el concepto de que el ser humano forme parte de la naturaleza y por lo tanto consideres que su regulación también sea en consecuencia "natural". Obviemos eso y consideremos que la regulación proviniente del ser humano es por definición artificial.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Vie Jun 05, 2015 7:57 am
por SololaVerdad
.
Estimado JohnyFK:

Lo que he planteado es una inmensa PARADOJA. Antes, todo se regulaba solo y siempre se seguirá auto regu-
lando solo, independiente de nosotros, por medio del Azar que ha sido siempre el responsable de todo cuanto
existe en la naturaleza, en la realidad. Pero ahora, que hemos llegado a ser máquinas vivas con mayor inteli-
gencia, nos ponemos a hablar de crear Inteligencia Artificial para ayudarle o corregirle la plana a la Inteligencia
Natural que fue la que siempre llevó las cosas lo más bien.

La Paradoja es que ahora podremos actuar de igual a igual con el Azar creador, siendo nosotros mismos los
creadores de todo lo que queramos hacer o modificar. ¿Superaremos con nuestra I. Artificial a la I. Natural del
Azar? A la larga, lo haremos con seguridad. Me resulta súper interesante e intrigante. Y lo apoyo totalmente. Y,
de las consecuencias, buenas o malas, nos ocuparemos más adelante, en su momento… ¿Qué te parece?
.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Mié Jul 29, 2015 5:55 pm
por SololaVerdad
.
A propósito de Inteligencia Artificial IA, en este momento se está desarrollando en Buenos Aires, Argentina, 25 al 31 de julio de 2015, la importante Conferencia internacional IJCAI sobre estas materias, a la cual he viajado, con algunos colegas, para asistir. Luego les compartiré novedades y detalles de interés. Links:

http://www.redinnova.com/2014/12/11/201 ... nos-aires/" onclick="window.open(this.href);return false;
http://www.dc.uba.ar/la-inteligencia-ar ... enos-aires" onclick="window.open(this.href);return false;
Con IJCAI 2015, la inteligencia artificial desembarca en Buenos Aires
Será una conferencia internacional inédita que reunirá a la comunidad mundial de IA en un mismo lugar. #NoticiasInnova
6734114

11 DIC, 2014
INNOVACIÓN TECNOLOGÍA

En julio de 2015 se realizará, por primera vez en Argentina, el evento de investigación en inteligencia artificial más importante del mundo. Se trata de la Conferencia Internacional Conjunta de Inteligencia Artificial auspiciada tradicionalmente por International Joint Conference on Artificial Intelligence (IJCAI).

Buenos Aires será el epicentro de la inteligencia artificial en un encuentro completamente inédito para el país: IJCAI 2015. Es la primera vez que Argentina ‐y América Latina‐ organiza la International Joint Conference on Artificial Intelligence, una conferencia cuyo objetivo es reunir a la comunidad mundial de inteligencia artificial en un mismo lugar y compartir los principales aportes científicos en ese campo, afianzando los vínculos entre todos los integrantes del área, conformada por investigadores y profesionales.

Imagen

Los organizadores locales de la conferencia serán los investigadores nacionales del área nucleados en Asociación Argentina de Inteligencia Artificial (AAIA), la división de SADIO dedicada a la inteligencia artificial, con el auspicio del Departamento de Computación de la Universidad de Buenos Aires, el Departamento de Ciencias e Ingeniería de la Computación de la Universidad Nacional del Sur y el Ministerio de Ciencia, Tecnología e Innovación Productiva.

IJCAI se realizará del 25 al 31 de julio de 2015 contando con una multitudinaria participación de investigadores de Argentina y la región. La conferencia reunirá a speakers de primera línea: Evgeniy Gabrilovich, Christof Koch, Michael L. Littman, Jon McCormack y Pete Wurman. Durante el evento, se realizarán diferentes tracks temáticos de presentación de trabajos de investigación, incluyendo una sección completa dedicada a la inteligencia artificial y el arte.
.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Mié Dic 16, 2015 11:19 pm
por Sunami
La arrogancia e ingenuidad más absoluta viene siempre a manos de los referentes en un ámbito particular del conocimiento, que siempre se sobre estiman a la hora de evaluar sus competencias para desarrollar temas que no tienen nada que ver con su maestría.

Estupidez supina, avecinando un nuevo fin del mundo.

La IA no va a llegar jamás a pertenecer a una categoría cercana al resultado de la evolución biológica, porque el marco del cual es resultado no es replicable, porque es más que mero corporeísmo.

Los mecanismos de creación de posibilidades del potencialidad de una mente inteligente no podrá jamás explicarse desde una categoría física, química ni biológica, es decir, cientifica). Porque la realidad emergente de esas realidades sencillas es inabordable pese a quién le pese. Por ello jamás podrá programarse nada que desemboque en algo parecido a una inteligencia humana.

Es como tratar de entender la economía desde la física, la química o la biología, solo puedo imaginarme a un niño autista intentando meter la cabeza entre unas verjas sin fin aparente solo para quedar atascado.

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Publicado: Mié Dic 30, 2015 11:51 am
por eduardo dd
Al margen de otras consideraciones; ¿obviamos a Stuart Russell?