![Ojo a la inteligencia artificial](https://s2.ppllstatics.com/laverdad/www/multimedia/2023/05/07/primera-plana-nuevo-nuevo-U190794184425kcG--1200x840@La%20Verdad.jpg)
![Ojo a la inteligencia artificial](https://s2.ppllstatics.com/laverdad/www/multimedia/2023/05/07/primera-plana-nuevo-nuevo-U190794184425kcG--1200x840@La%20Verdad.jpg)
Secciones
Servicios
Destacamos
Este lunes, investigadores de la Universidad de Texas describían en la revista 'Nature Neuroscience' un proyecto de inteligencia artificial (IA) capaz de descifrar los pensamientos de 16 individuos mediante la aplicación conjunta de resonancia magnética funcional, escáneres que registran el flujo sanguíneo en las zonas activadas del cerebro y un programa de lenguaje similar al del chatGPT-4 de la compañía californiana OpenAI. En la última década se había avanzado experimentalmente en sistemas que permitirán expresarse a personas sin habla y movilidad. Sin embargo, este decodificador del lenguaje es el primero que no depende de implantes. Aunque los equipos de resonancia son tan grandes como caros y estos resultados solo se obtienen con un entrenamiento previo y personalizado, este estudio muestra cómo con la IA quizá se puede aprender a leer la mente, lo que abre fascinantes posibilidades de comunicación pero también la eventualidad de que un día se pueda llegar a saber qué estamos pensando en contra de nuestra voluntad.
El avance de la IA, explosivo desde el pasado verano por la carrera abierta entre OpenAI, Google, Microsoft, Meta (Facebook) y otras tecnológicas, está suscitando todo tipo de positivas expectativas pero también de grandes temores por el carácter disruptivo de una tecnología que puede cambiar nuestras vidas tanto o más que los navegadores de internet. Esta semana se ha avivado el debate después de que uno de los pioneros de la IA generativa, Geoffrey Hinton, anunciara que dejaba de colaborar con Google, alertando de que la tecnología que él ayudó a crear puede acabar con 300 millones de empleos y causar una inmensa confusión en la sociedad al poner herramientas muy sofisticadas en manos de la industria de la desinformación. Premio Príncipe de Asturias y autor de los trabajos seminales que dieron origen al chatGPT, Hinton plantea un escenario casi apocalíptico que enlaza con el manifiesto firmado por un millar de líderes tecnológicos de Estados Unidos, entre ellos Elon Musk, CEO de Twitter y Tesla, pidiendo una moratoria de seis meses en el desarrollo de la IA hasta analizar sus riesgos.
La IA ya está presente en nuestras vidas de una manera importante. Como señalan en un manifiesto 19 investigadores estadounidenses que son destacados miembros de la Asociación para el Avance de la Inteligencia Artificial, la IA «impulsa nuestros sistemas de navegación, se aprovecha diariamente en miles de pruebas de detección de cáncer y ayuda a clasificar miles de millones de cartas en el servicio postal». Recuerdan que gracias a esta tecnología se ha podido desvelar la estructura de cientos de miles de proteínas, se ha mejorado la calidad asistencial en los hospitales y se está utilizando para realizar predicciones detalladas del clima, crear nuevos materiales y facilitar nuevas herramientas a los ingenieros que impulsan su creatividad. Y esto es solo el principio de innumerables aplicaciones en el campo de la medicina o la educación. Pero estos pioneros de la IA son al mismo tiempo conscientes de los riesgos asociados, incluida la posibilidad de que los «sistemas de IA cometan errores, proporcionen recomendaciones sesgadas, amenacen nuestra privacidad, empoderen a los malos actores con nuevas herramientas y tengan un impacto negativo en el trabajo». [IBM, el gigante azul de la informática, ha anunciado que prescindirá de 8.000 contrataciones porque esos trabajos se realizarán con inteligencia artificial].
Mi impresión es que Hinton no se equivoca cuando afirma que los gigantes tecnológicos están atrapados en una espiral de competencia que será difícil de detener o ralentizar. La prueba es que todos están acelerando. Microsoft ha mejorado recientemente su buscador Bing con un chatbot de IA, en lo que constituye la mayor amenaza conocida hasta ahora para la hegemonía del popular buscador de Google, obligado ahora a lanzarse a desarrollar un sistema similar para no quedarse atrás. Sin duda, lo más sensato sería parar y reflexionar para fijar criterios y límites. Lo hicieron los biólogos moleculares a mediados de los 70 en la famosa Conferencia californiana de Asilomar, donde debatieron sobre los beneficios y los riesgos de la entonces naciente ingeniería genética. No hacerlo pasa factura. En mi opinión, no se actuó de manera correcta antes de la pandemia, cuando la comunidad científica y los gobiernos pasaron de puntillas sobre el debate de las investigaciones experimentales de 'ganancia de función' con virus de alta peligrosidad para los humanos. Experimentos que acentúan en laboratorio la capacidad de propagación o letalidad de los microorganismos infecciosos para conocerlos y combatirlos mejor. La discusión apenas tuvo eco público. Es cierto que se frenó la financiación con dinero público en Estados Unidos, pero no sabemos si estos experimentos se llevaron a cabo en China, incluso con fondos públicos estadounidenses. Ahí está en buena medida la razón de que parte de la comunidad científica no descarte que el origen del coronavirus de la covid pudiera estar en ese tipo de experimentación en el laboratorio de Wuhan.
Garantizar que la IA se emplea para obtener el máximo beneficio para el conjunto de la humanidad requerirá una amplia participación de la sociedad, no solo de las empresas tecnológicas y los investigadores. Los gobiernos tienen que implicarse en su fomento pero también en su regulación para blindar sus aportaciones positivas y minimizar los riesgos. Es fundamental que los algoritmos de aprendizaje automático de la IA hagan lo que queremos que hagan, pero sin apartarse de los principios éticos que guían nuestro comportamiento en la vida diaria. Es absolutamente necesario garantizar la privacidad de los datos de los ciudadanos y combatir la utilización de falsas noticias, escritas y audiovisuales, creadas con IA con una alta capacidad para manipular y engañar a la opinión pública.
La UE está trabajando en una Ley de Inteligencia Artificial, que pone el foco en los usos de alto riesgo, aquellos en los que la vida o el sustento de una persona pueda depender de una decisión tomada por algoritmos de este tipo. Algunos expertos creen que la UE se queda corta. Piensan que se debería limitar la capacidad de estos programas, no solo sus usos, por el peligro de que pueda haber gran divergencia entre lo que queremos que hagan y lo que harán, dice el analista Ezra Klein de 'The New York Times'. No hay duda de que necesitamos pronto una regulación con una carta de derechos ciudadanos frente a las decisiones importantes para nuestras vidas que pudieran tomarse con la inteligencia artificial.
Publicidad
Publicidad
Te puede interesar
La víctima del crimen de Viana recibió una veintena de puñaladas
El Norte de Castilla
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.