Stephen Hawking: "La I.A. puede ser el peor error de la huma

Subforo de información y debate para tratar temas científicos, como física, biología, química, astronomía, informática, ingeniería, psicología, filosofía, ciencias sociales, medicina, etc.
eduardo dd
Participante veterano
Mensajes: 2713
Registrado: Jue Abr 08, 2010 8:19 pm
Ubicación: Madrid

Stephen Hawking: "La I.A. puede ser el peor error de la huma

Mensaje sin leer por eduardo dd »

Stephen Hawking: "La I.A. puede ser el peor error de la humanidad"

Imagen

http://es.gizmodo.com/stephen-hawking-l ... 1571328845
Parece que nos somos los únicos en sentir un cierto reparo hacia la idea de construir una máquina inteligente capaz de pensar por si misma. El laureado físico Stephen Hawking no ha dudado en calificar a la Inteligencia Artificial, o I.A. como el peor error que podría cometer la humanidad, y probablemente el último.

Hawking no se muestra abiertamente contrario a las investigaciones en este campo, pero cree que la comunidad científica no se está preocupando lo suficiente por mantener bajo control un eventual sistema de inteligencia artificial el día que se descubra. El físico ha publicado un artículo conjunto con el especialista en computación Stuart Russell, y los físicos Max Tegmark y Frank Wilczek. Estas son sus palabras. Podéis leer artículo completo (en inglés) aquí. [vía The Independent]

Si miramos hacia el futuro, no hay límites a lo podemos lograr en este campo [I.A.]. No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se re-ordenen a sí mismas para realizar cálculos más complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apuntó en 1965, un sistema de inteligencia artificial puede decidir mejorar su propio diseño por su cuenta, dando lugar a lo que Vernor Vinge denominó una singularidad, o lo que Johny Depp llama Trascendencia en la reciente película que protagoniza.

No es difícil imaginar una tecnología semejante dominando completamente los mercados financieros, sobrepasando los diseños de sus propios creadores, manipulando líderes, o encontrando maneras de construir armas que no seríamos capaces ni de comprender. Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos.

Estamos ante un futuro de incalculables posibilidades, oportunidades y riesgos. Es lógico pensar que los científicos están tomando todas las precauciones para asegurar el mejor resultado posible, ¿verdad? Pues no es así. ¿Si una civilización del espacio exterior nos enviara un mensaje diciendo: "Llegamos en unos años", nuestra respuesta sería: "¡Ok! Avisadnos cuando estéis llegando para dejar las luces encendidas"? Probablemente no, pero eso es más o menos lo que está ocurriendo con la inteligencia artificial. Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se están investigando seriamente sus implicaciones Las únicas organizaciones que están estudiando esto son el Centro Cambridge para el estudio del riesgo existencial, el Instituto para el futuro de la humanidad, el Centro de Investigación de Inteligencia Artificial, o el Instituto Vida Futura. Todos nosotros deberíamos preguntarnos desde hoy mismo qué puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor.

JohnyFK
Participante veterano
Mensajes: 1381
Registrado: Lun Ago 23, 2010 10:42 am

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por JohnyFK »

Esto tampoco es nada nuevo. Ya se ha planteado en innumerables obras de ciencia ficción.

La visión de los más optimistas apunta a que acabarán como unos seres muy superiores al ser humano y que alcanzarán el potencial de dioses comparados con el nuestro, y al final deciden acunarnos bajo su protección. La de los más pesimistas es la misma pero en cambio nos terminan considerando como prescindibles, despreciables o simplemente molestos, por lo que deciden eliminarnos o abandonarnos a nuestra suerte.

La visión común entre las dos vertientes es que su potencial terminará escapándose de nuestro control tarde o temprano y no podremos evitar que las inteligencias artificiales decidan por sí mismas, tal y como apunta Stephen, con las consecuencias que ello conlleve.
"El ser humano no es un animal racional, tan solo es capaz de razonar" Jonathan Swift
Jesús no murió por ti, fueron las estrellas: http://www.youtube.com/watch?v=Ne9pVmG7n8Q
Asociate a Iniciativa atea: Asociarse

Avatar de Usuario
Wilalgar
Participante veterano
Mensajes: 1988
Registrado: Lun May 11, 2009 5:40 pm
Ubicación: En algún lugar de la Península Ibérica

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por Wilalgar »

Ya son dos cosas en las que coincido con este hombre, en su opinión de que estamos cometiendo un error anunciándonos en el espacio sin control (la esfera radial de la Tierra ya tiene ciento sesenta años-luz de diámetro) y en su opinión sobre la IA.

En ambos casos estamos apostando nuestras vidas a que ambas inteligencias (la posible inteligencia extraterrestre y la IA) sean benignas hacia nosotros, pero la verdad, ni nosotros mismos seríamos benignos con una inteligencia distinta a la nuestra y tan destructiva y belicosa como somos nosotros.

Como puso una vez de ejemplo, estamos en una casa encendiendo todas las luces y armando un escándalo tremendo y ni siquiera sabemos en qué barrio está ubicada nuestra casa. Si tenemos suerte estaremos en un bonito barrio residencial lleno de vecinos amables, pero perfectamente puede suceder que estemos en un suburbio lleno de traficantes de droga, ladrones y asesinos... y terminarán escuchándonos y vendrán a visitarnos con intenciones no demasiado buenas. Pues con esto estamos criando a un niño que no sabemos si es un psicópata asesino o un estudiante modelo, y le estamos dejando los cuchillos a mano.
Imagen

JohnyFK
Participante veterano
Mensajes: 1381
Registrado: Lun Ago 23, 2010 10:42 am

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por JohnyFK »

Wilalgar, en cuanto al tema de nuestros vecinos extraterrestres yo lo veo de la siguiente manera. Por lo que se está descubriendo últimamente, es muy normal encontrar planetas en una proporción considerable de estrellas, y no es una locura poder afirmar que muchas de ellas deben de tener planetas con condiciones óptimas para la vida. También hay que tener en cuenta que nuestra estrella es bastante joven, y que hay estrellas muchísimo más antiguas en las que han podido existir o existen formas de vida inteligente, tras lo cual yo saco la siguiente conclusión. Dada la inmensa probabilidad de que existan innumerables planetas con vida y seguramente en algunos casos con vida inteligente, el que no hayamos recibido visita ya, puede responder a dos razones. La primera es que los viajes interestelares son muchísimo más difíciles de realizar de lo que podamos imaginar, y por lo tanto que una forma de vida extraterrestre lo haya conseguido es muy muy poco probable, o que para conseguirlos se requiere un nivel de inteligencia y de evolución tal, que no causemos más interés en los que lo han conseguido que el que nos causa un hormiguero cuando nos lo cruzamos por la calle.

En cualquier caso todo esto son simples impresiones mías, y tampoco me preocupa demasiado porque veo mucho más probable una autodestrucción de nuestra civilización que una destrucción por agentes externos.
"El ser humano no es un animal racional, tan solo es capaz de razonar" Jonathan Swift
Jesús no murió por ti, fueron las estrellas: http://www.youtube.com/watch?v=Ne9pVmG7n8Q
Asociate a Iniciativa atea: Asociarse

Avatar de Usuario
Vitriólico
Participante veterano
Mensajes: 5183
Registrado: Vie Abr 17, 2009 8:44 pm

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por Vitriólico »

A ver .... vosotros qué creéis más probable: ¿que podamos viajar a dudosos planetas situados a miles de años-luz -en el mejor de los casos- o que antes nos vayamos a la mierda en éste vía desastre ecológico, superpoblación y consiguiente guerra, virus o cometa?
No deja de hacerme gracia la extraña y cinematográfica fe que profesan algunos ateos ....
Si pretendes razonar sobre religión con un creyente piensa que, si pudiera razonar sobre ello, ... ¡no sería creyente!

"La primera vez que alguien te engaña, es culpa suya. La segunda, tuya.".
(Proverbio árabe).

Avatar de Usuario
Wilalgar
Participante veterano
Mensajes: 1988
Registrado: Lun May 11, 2009 5:40 pm
Ubicación: En algún lugar de la Península Ibérica

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por Wilalgar »

Ah, respecto a la Humanidad tengo bastante claro que no llegaremos a las estrellas porque antes de eso nuestra civilización sucumbirá de una u otra forma, y aunque la Humanidad siga existiendo su máxima tecnología será el arco y las flechas, sobre todo porque si nuestra civilización sucumbe no podrá resurgir otra más adelante, pues ya hemos consumido y procesado la mayor parte de productos necesarios para que eso se produzca, y lo que queda está demasiado profundo en la tierra como para alcanzarlo sin tecnología. Yo veo el futuro de la Humanidad como una interminable Edad de Piedra.

Pero veo posible otras mentalidades diferentes a la humana que hayan tenido la misma suerte que nosotros (varios millones de años sin desastres catastróficos) y el suficiente sentido común como para no autodestruirse. No digo que existan, no hay pruebas de ello, pero lo veo posible. Los delfines están muy bien sin atacarse como lo hacemos nosotros y son al menos tan inteligentes como nosotros...
Y de existir esos alienígenas, es precisamente lo que me preocupa, que sean tan diferentes a nosotros que nos consideren un peligro inaceptable (por muy pocas posibilidades que tengamos de expandirnos por el espacio) y nos ayuden amablemente en nuestros esfuerzos por extinguirnos.

La verdad, si yo fuera un alienígena lo haría.
Imagen

Avatar de Usuario
bukowski
Participante veterano
Mensajes: 700
Registrado: Mar Abr 05, 2011 11:02 pm
Ubicación: Murcia

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por bukowski »

Wilalgar escribió:Ah, respecto a la Humanidad tengo bastante claro que no llegaremos a las estrellas porque antes de eso nuestra civilización sucumbirá de una u otra forma, y aunque la Humanidad siga existiendo su máxima tecnología será el arco y las flechas, sobre todo porque si nuestra civilización sucumbe no podrá resurgir otra más adelante, pues ya hemos consumido y procesado la mayor parte de productos necesarios para que eso se produzca, y lo que queda está demasiado profundo en la tierra como para alcanzarlo sin tecnología. Yo veo el futuro de la Humanidad como una interminable Edad de Piedra.

Pero veo posible otras mentalidades diferentes a la humana que hayan tenido la misma suerte que nosotros (varios millones de años sin desastres catastróficos) y el suficiente sentido común como para no autodestruirse. No digo que existan, no hay pruebas de ello, pero lo veo posible. Los delfines están muy bien sin atacarse como lo hacemos nosotros y son al menos tan inteligentes como nosotros...
Y de existir esos alienígenas, es precisamente lo que me preocupa, que sean tan diferentes a nosotros que nos consideren un peligro inaceptable (por muy pocas posibilidades que tengamos de expandirnos por el espacio) y nos ayuden amablemente en nuestros esfuerzos por extinguirnos.

La verdad, si yo fuera un alienígena lo haría.
Bueno, los delfines no son tan adorables como parecen, se suelen dar casos de violaciones a hembras por grupos de machos, o de ataques a focas de manera indiscriminada. Son lo que se dice unos mamíferos muy "humanos" en el sentido despectivo de la palabra.

En cuanto al tema de los alienígenas, hay que tener en cuenta que aunque existan, sean inteligentes y tengan la tecnología suficiente para detectarnos y visitarnos, como especie llevamos muy poco tiempo haciendo ruido. El tiempo que llevamos en el planeta es ínfimo, y no hace ni 50 años que pudimos visitar la luna. ¿Qué son 50 años en comparación con la edad universo? nada. Y a pesar de ser nada casi nos vamos al carajo en la crisis de Cuba. Si son algo listos es normal que como dicen otros foreros no tengamos ningún interés para ellos. Me imagino a un bicho verde diciéndole a otro "¿Para que echar el viaje? si lo mismo cuando lleguemos ya se han matado". Como especie todavía tenemos mucho que demostrar, y estoy seguro de que no somos tan especiales y únicos como pensamos.

Y volviendo ya del offtopic, a mí siempre me ha fascinado el tema de la I.A. porque nos hace plantearnos qué es lo que realmente nos hace humanos, pero me cuesta mucho hacer cualquier hipótesis acerca de su futuro. Todavía quedan muchos misterios en cuanto al funcionamiento de nuestro cerebro como para planterarme los de la I.A.
Todo el mundo debería creer en algo... yo creo que me tomaré otra copa .

eduardo dd
Participante veterano
Mensajes: 2713
Registrado: Jue Abr 08, 2010 8:19 pm
Ubicación: Madrid

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por eduardo dd »

Retomando el tema de la IA (aquí tenéis el hilo de extraterrestres viewtopic.php?f=3&t=8395&p=91685&hilit= ... ing#p91685)

-------------------------------------------------------------------------------------

Creo que esta es la clave:
La cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos.


¿Se puede impedir que "aprendan"? si. ¿Que aprendan solo en un campo limitado en el área deseada? supongo que también.

En mi opinión la clave es la carrera de gobiernos y empresas por hacerse con la tecnología; la libre competencia y las patentes no admiten prudentes demoras y controles.

Como dijo Eudald Carbonell: "Hemos construido un mundo competitivo y no un mundo competente y ahora nos toca construir un mundo con competencias, llevo diciéndolo hace más de 30 años. A la gente competente nunca la verás competir, sólo compiten los incompetentes y esta especie sólo será competente cuando no compita entre sí, cuando no haya lucha de clases, cuando esta historia que hemos conocido sea una historia del pasado".

JohnyFK
Participante veterano
Mensajes: 1381
Registrado: Lun Ago 23, 2010 10:42 am

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por JohnyFK »

No se. Yo la competencia la veo una forma de avance, siempre y cuando sea de forma sana. ¿Acaso muchas de las investigaciones de Newton que impulsaron enormemente la ciencia moderna no fueron fruto de un reto?

En cuanto a considerar a la IA humana o no... primero ¿qué es ser humano? si lo consideras como pertenecer a nuestra especie por supuesto que no serían humanos, pero si con humano te refieres a seres autoconscientes no veo ningún disparate considerar que es posible. ¿A caso importa que un sistema tan complejo como nosotros sea fruto de millones de años de cincelado evolutivo o de una investigación científica?
"El ser humano no es un animal racional, tan solo es capaz de razonar" Jonathan Swift
Jesús no murió por ti, fueron las estrellas: http://www.youtube.com/watch?v=Ne9pVmG7n8Q
Asociate a Iniciativa atea: Asociarse

eduardo dd
Participante veterano
Mensajes: 2713
Registrado: Jue Abr 08, 2010 8:19 pm
Ubicación: Madrid

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por eduardo dd »

JohnyFK escribió:No se. Yo la competencia la veo una forma de avance, siempre y cuando sea de forma sana. ¿Acaso muchas de las investigaciones de Newton que impulsaron enormemente la ciencia moderna no fueron fruto de un reto?
Los grandes proyectos son pura colaboración científica; ISS, LCH,ADN humano etc. La IA desde luego lo es, Hawking con el especialista en computación Stuart Russell, y los físicos Max Tegmark y Frank Wilczeknos nos avisan:
Estamos ante un futuro de incalculables posibilidades, oportunidades y riesgos. Es lógico pensar que los científicos están tomando todas las precauciones para asegurar el mejor resultado posible, ¿verdad? Pues no es así.

Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se están investigando seriamente sus implicaciones Las únicas organizaciones que están estudiando esto son el Centro Cambridge para el estudio del riesgo existencial, el Instituto para el futuro de la humanidad, el Centro de Investigación de Inteligencia Artificial, o el Instituto Vida Futura. Todos nosotros deberíamos preguntarnos desde hoy mismo qué puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor.
JohnyFK escribió:En cuanto a considerar a la IA humana o no... primero ¿qué es ser humano? si lo consideras como pertenecer a nuestra especie por supuesto que no serían humanos, pero si con humano te refieres a seres autoconscientes no veo ningún disparate considerar que es posible. ¿A caso importa que un sistema tan complejo como nosotros sea fruto de millones de años de cincelado evolutivo o de una investigación científica?
¿Te refieres a mi? Porque ni pienso eso, ni lo he escrito -el ser humano esta sobre valorado, y la auto consciencia abunda en el reino animal (resumidamente)-.

Saludos.

JohnyFK
Participante veterano
Mensajes: 1381
Registrado: Lun Ago 23, 2010 10:42 am

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por JohnyFK »

eduardo dd escribió: ¿Te refieres a mi? Porque ni pienso eso, ni lo he escrito -el ser humano esta sobre valorado, y la auto consciencia abunda en el reino animal (resumidamente)-.
Perdona Eduardo. En mi último párrafo me refería a éste de bukowski:
bukowski escribió: Y volviendo ya del offtopic, a mí siempre me ha fascinado el tema de la I.A. porque nos hace plantearnos qué es lo que realmente nos hace humanos, pero me cuesta mucho hacer cualquier hipótesis acerca de su futuro. Todavía quedan muchos misterios en cuanto al funcionamiento de nuestro cerebro como para planterarme los de la I.A.
"El ser humano no es un animal racional, tan solo es capaz de razonar" Jonathan Swift
Jesús no murió por ti, fueron las estrellas: http://www.youtube.com/watch?v=Ne9pVmG7n8Q
Asociate a Iniciativa atea: Asociarse

Avatar de Usuario
Andarin
Participante habitual
Mensajes: 423
Registrado: Vie Mar 02, 2012 12:42 pm

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por Andarin »

Con respecto a la inteligencia artificial tengo una pregunta que me parece crucial ¿puede un hombre, o un grupo de hombres, construir una máquina más inteligente que él o ellos?. A mi me parece que no, que podría ser infinitamente mucho más inteligente en un montón de campos aislados, pero que en la interacción y control de todos los posibles campos de la inteligencia siempre saldría ganando la mente o la cooperación de las mentes que la crearon.

También quiero suponer que en todo el proceso de investigación y desarrollo de la IA nos daremos cuenta de alguna particularidad básica y necesaria que no se puede añadir para asegurarnos que la máquina nunca pueda llegar a colocarse en competencia directa y peligrosa con los humanos. Aunque claro, a lo mejor es mucho suponer habida cuenta de que ya nos hemos encargado de crear y llenar el planeta de armas nucleares que nos podrían aniquilar en un instante, varias veces .....
Que nadie se confunda con mi avatar. No estoy pensando, que estoy .......

Avatar de Usuario
skeptic
Participante veterano
Mensajes: 2501
Registrado: Jue Jun 17, 2010 8:30 am
Ubicación: Madrid

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por skeptic »

Alguien ya hizo cálculos sobre posibles causas de nuestra extinción y el principal riesgo creo recordar que estaba en las armas biológicas o nanotecnológicas fuera de control.

Creo que tenemos varios frentes abiertos.
·

_________________________________________
"Argumentar con una persona que ha
renunciado a la lógica, es como dar
medicina a un hombre muerto".
— Thomas Paine
_________________________________________

JohnyFK
Participante veterano
Mensajes: 1381
Registrado: Lun Ago 23, 2010 10:42 am

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por JohnyFK »

Si. Está claro que somos la especie del planeta a la que mejor se le da buscar formas de atoextinción.
"El ser humano no es un animal racional, tan solo es capaz de razonar" Jonathan Swift
Jesús no murió por ti, fueron las estrellas: http://www.youtube.com/watch?v=Ne9pVmG7n8Q
Asociate a Iniciativa atea: Asociarse

SololaVerdad
Participante
Mensajes: 63
Registrado: Lun May 25, 2015 11:17 pm

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por SololaVerdad »

.
*** ¿No hay un poco de intensa paranoia en algo tan simple como NO dejar que todo se siga regulando solo, sin
ayuda, tal como lleva más de cien millones de años ocurriendo? Tengamos más confianza en la Materia y en su
sabia manera de llevar las cosas. Mi poca Inteligencia no es mía; es de la especie. Y no es nada natural. Es 100%
artificial, fue tomada de las cosas, de los libros, de la práctica, del aprendizaje y el entrenamiento y, con res-
pecto al cableado, es solo consecuencia de prueba y error, continuos. En consecuencia: Yo soy una máquina
rara, (al igual que ustedes) como todas las máquinas VIVAS, pero máquina al fin. Y es muy evidente, al menos
para mí, que el AZAR me hizo y me moldeó como se le fue dando, siglo tras siglo por prueba y error, sin ninguna
dirección superior, ni divina, ni mágica, ni celestial, etc. Lo novedoso es que ahora el Azar ya no trabaja solo. Le
ayudamos nosotros, sus algo perfeccionadas creaciones. Entonces, en el fondo, todo sigue siendo creado por él,
o sea, artificial: Materia cada vez más organizada. Pero Materia, solo Materia, al fin…
.

JohnyFK
Participante veterano
Mensajes: 1381
Registrado: Lun Ago 23, 2010 10:42 am

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por JohnyFK »

SololaVerdad,,,, no me ha quedado claro con lo que has dicho... ¿estas apoyando la regulación artificial humana del medio ambiente o estas apoyando dejar que la naturaleza se autorregule sola como ha hecho siempre? Dejando a un lado el concepto de que el ser humano forme parte de la naturaleza y por lo tanto consideres que su regulación también sea en consecuencia "natural". Obviemos eso y consideremos que la regulación proviniente del ser humano es por definición artificial.
"El ser humano no es un animal racional, tan solo es capaz de razonar" Jonathan Swift
Jesús no murió por ti, fueron las estrellas: http://www.youtube.com/watch?v=Ne9pVmG7n8Q
Asociate a Iniciativa atea: Asociarse

SololaVerdad
Participante
Mensajes: 63
Registrado: Lun May 25, 2015 11:17 pm

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por SololaVerdad »

.
Estimado JohnyFK:

Lo que he planteado es una inmensa PARADOJA. Antes, todo se regulaba solo y siempre se seguirá auto regu-
lando solo, independiente de nosotros, por medio del Azar que ha sido siempre el responsable de todo cuanto
existe en la naturaleza, en la realidad. Pero ahora, que hemos llegado a ser máquinas vivas con mayor inteli-
gencia, nos ponemos a hablar de crear Inteligencia Artificial para ayudarle o corregirle la plana a la Inteligencia
Natural que fue la que siempre llevó las cosas lo más bien.

La Paradoja es que ahora podremos actuar de igual a igual con el Azar creador, siendo nosotros mismos los
creadores de todo lo que queramos hacer o modificar. ¿Superaremos con nuestra I. Artificial a la I. Natural del
Azar? A la larga, lo haremos con seguridad. Me resulta súper interesante e intrigante. Y lo apoyo totalmente. Y,
de las consecuencias, buenas o malas, nos ocuparemos más adelante, en su momento… ¿Qué te parece?
.

SololaVerdad
Participante
Mensajes: 63
Registrado: Lun May 25, 2015 11:17 pm

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por SololaVerdad »

.
A propósito de Inteligencia Artificial IA, en este momento se está desarrollando en Buenos Aires, Argentina, 25 al 31 de julio de 2015, la importante Conferencia internacional IJCAI sobre estas materias, a la cual he viajado, con algunos colegas, para asistir. Luego les compartiré novedades y detalles de interés. Links:

http://www.redinnova.com/2014/12/11/201 ... nos-aires/" onclick="window.open(this.href);return false;
http://www.dc.uba.ar/la-inteligencia-ar ... enos-aires" onclick="window.open(this.href);return false;
Con IJCAI 2015, la inteligencia artificial desembarca en Buenos Aires
Será una conferencia internacional inédita que reunirá a la comunidad mundial de IA en un mismo lugar. #NoticiasInnova
6734114

11 DIC, 2014
INNOVACIÓN TECNOLOGÍA

En julio de 2015 se realizará, por primera vez en Argentina, el evento de investigación en inteligencia artificial más importante del mundo. Se trata de la Conferencia Internacional Conjunta de Inteligencia Artificial auspiciada tradicionalmente por International Joint Conference on Artificial Intelligence (IJCAI).

Buenos Aires será el epicentro de la inteligencia artificial en un encuentro completamente inédito para el país: IJCAI 2015. Es la primera vez que Argentina ‐y América Latina‐ organiza la International Joint Conference on Artificial Intelligence, una conferencia cuyo objetivo es reunir a la comunidad mundial de inteligencia artificial en un mismo lugar y compartir los principales aportes científicos en ese campo, afianzando los vínculos entre todos los integrantes del área, conformada por investigadores y profesionales.

Imagen

Los organizadores locales de la conferencia serán los investigadores nacionales del área nucleados en Asociación Argentina de Inteligencia Artificial (AAIA), la división de SADIO dedicada a la inteligencia artificial, con el auspicio del Departamento de Computación de la Universidad de Buenos Aires, el Departamento de Ciencias e Ingeniería de la Computación de la Universidad Nacional del Sur y el Ministerio de Ciencia, Tecnología e Innovación Productiva.

IJCAI se realizará del 25 al 31 de julio de 2015 contando con una multitudinaria participación de investigadores de Argentina y la región. La conferencia reunirá a speakers de primera línea: Evgeniy Gabrilovich, Christof Koch, Michael L. Littman, Jon McCormack y Pete Wurman. Durante el evento, se realizarán diferentes tracks temáticos de presentación de trabajos de investigación, incluyendo una sección completa dedicada a la inteligencia artificial y el arte.
.

Avatar de Usuario
Sunami
Participante veterano
Mensajes: 1450
Registrado: Dom Dic 12, 2010 11:03 pm
Ubicación: Lejona (Vizcaya)

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por Sunami »

La arrogancia e ingenuidad más absoluta viene siempre a manos de los referentes en un ámbito particular del conocimiento, que siempre se sobre estiman a la hora de evaluar sus competencias para desarrollar temas que no tienen nada que ver con su maestría.

Estupidez supina, avecinando un nuevo fin del mundo.

La IA no va a llegar jamás a pertenecer a una categoría cercana al resultado de la evolución biológica, porque el marco del cual es resultado no es replicable, porque es más que mero corporeísmo.

Los mecanismos de creación de posibilidades del potencialidad de una mente inteligente no podrá jamás explicarse desde una categoría física, química ni biológica, es decir, cientifica). Porque la realidad emergente de esas realidades sencillas es inabordable pese a quién le pese. Por ello jamás podrá programarse nada que desemboque en algo parecido a una inteligencia humana.

Es como tratar de entender la economía desde la física, la química o la biología, solo puedo imaginarme a un niño autista intentando meter la cabeza entre unas verjas sin fin aparente solo para quedar atascado.
"Marx decía que la religión es el opio del pueblo, yo digo que el opio del pueblo es la expansión crediticia" - Huerta de Soto

eduardo dd
Participante veterano
Mensajes: 2713
Registrado: Jue Abr 08, 2010 8:19 pm
Ubicación: Madrid

Re: Stephen Hawking: "La I.A. puede ser el peor error de la

Mensaje sin leer por eduardo dd »

Al margen de otras consideraciones; ¿obviamos a Stuart Russell?

Responder