COLUMNASOPINIÓN

Demasiado Artificial para ser Inteligente

Una Columna de Opinión de Camilo Chacón Sartori. Estudiante de doctorado del Instituto de Investigación en Inteligencia Artificial, Barcelona, España.

A principio de mayo, Geoffrey Hinton, uno de los pioneros del campo, advirtió “En este momento los sistemas de IA no son más inteligentes que nosotros, pero creo que pronto lo serán”. Y entonces una avalancha de opiniones han surgido en las redes sociales, y de la que diversos medios de comunicación se han hecho eco.

A lo largo de la historia, los avances de la tecnología han producido dos grupos de personas: los que en vez de progresar prefieren añorar el pasado y los que ven con un optimismo desmedido el futuro. Lo vimos con la revolución industrial y en la invención de la electricidad; o cuando apareció la radio, la televisión, el computador, el Internet, entre otros ejemplos. Hinton, a pesar de su relevancia científica, parece estar en el segundo grupo. Aunque es un optimismo que se centra en los aspectos negativos de la IA, donde las máquinas dominan al ser humano, algo así como Skynet de la película Terminator.

Pero es bastante sospechoso que —¿pronto? — algo así ocurra. Científicos de su mismo calibre opinan lo contrario, y no sólo ellos, también, ingenieros, neurocientíficos y filósofos dicen que alcanzar la “singularidad” (cuando los sistemas de IA superan al ser humano en sus capacidades) es un reto improbable mientras algunas características humanas no se pueden replicar por medio de un computador, a saber: la intuición, la creatividad, la inteligencia cognitiva, el miedo, el amor, los conceptos de verdad y falsedad, y, sobre todo, la conciencia. Todas ellas desconocidas tanto para las máquinas como para nosotros.

Aplicaciones actuales como ChatGPT no tienen ninguno de estos conceptos dentro de su “código”, y a pesar de ello, sus respuestas parecen sorprender a más de un escéptico. Esto se debe a dos logros humanos: el avance del hardware, con supercomputadores en empresas como Google, Microsoft y Amazon, capaces de procesar una vasta cantidad de datos y brindar servicios a millones de personas en todo el mundo, y la aplicación de la teoría de las probabilidades a gran escala.

ChatGPT es capaz de predecir cada palabra, una tras de otra, ya que tiene una “base de datos” de billones de textos provenientes de Internet, enciclopedias y libros. Esto le permite crear la “ilusión” de que piensa, razona, y que es tan creativo como nosotros. Lo mismo ocurre con los generadores de imágenes y audios.

Antes bien: es una mera ilusión. Y aunque el fin último de la IA es poder replicar el cerebro humano para luego superarlo; mientras no se pueda descubrir cómo simular características humanas dentro de un computador, debemos conformarnos con sistemas que puedan leer billones de textos e inferir en milésimas de segundos las palabras más probables, formando textos que están bien escritos, que son convincentes, a menudo políticamente correctos, y también mentirosos. 

Y aun cuando no podemos hablar de sistemas realmente inteligentes, que están cerca de sobrepasarnos, como avizora Hinton; luego de ver los escritos que se comparten por redes sociales, estos sistemas ya se comportan más “inteligentes” que muchos humanos, y de ahí radica su peligro.

Leer la noticia completa

Sigue leyendo El Insular

Botón volver arriba
error: Contenido protegido