ACTUALIDAD Miércoles 19 de Abril de 2023

¿Estamos caminando hacia una tragedia de IA?

97_ia-nota.jpg Shutterstock

COMPARTIR ESTA NOTA

Si bien el Papa Francisco insiste en que la ciencia debe estar al servicio de la humanidad, las preocupaciones éticas parecen ser una ocurrencia tardía en la carrera por capturar el mercado de la IA.

Silicon Valley avanza siguiendo tres pasos bastante sencillos: probar cosas, ver cómo fallan, intentarlo de nuevo. En más de un sentido, no es más que otro ejemplo del típico método científico-empírico moderno. Y aunque esta forma de hacer las cosas “nos ha traído una tecnología de consumo increíblemente genial y sitios web divertidos”, como bien dice Kelsey Piper , la IA es un juego completamente diferente: ya no se trata de ser genial o divertido, sino de “ingeniería robusta para fiabilidad."

En una entrevista publicada recientemente con Time , el fundador de DeepMind, Demis Hassabis, instó a la precaución. DeepMind es una subsidiaria de la empresa matriz de Google, Alphabet, y uno de los laboratorios de inteligencia artificial líderes en el mundo. Uno de sus algoritmos, AlphaFold, “había predicho las estructuras 3D de casi todas las proteínas conocidas por la humanidad, y […] la compañía estaba [está] haciendo que la tecnología detrás de él esté disponible gratuitamente”, se lee en la entrevista . Aún más, "AlphaFold ya ha sido un multiplicador de fuerza para cientos de miles de científicos que trabajan en esfuerzos como el desarrollo de vacunas contra la malaria, la lucha contra la resistencia a los antibióticos y la contaminación plástica ".

Pero con un gran poder también viene un gran peligro. En la misma entrevista , Hassabis explicó que “en los últimos meses, los investigadores que construyeron un sistema de inteligencia artificial para diseñar nuevos medicamentos revelaron que su herramienta podría reutilizarse fácilmente para fabricar nuevos químicos letales ”.

“Abogaría”, dijo Hassabis a Time , “no moverse rápido y romper cosas ”. Hassabis se refería a un antiguo lema de Facebook que se convirtió en el MO clásico de la empresa, animando a los ingenieros a centrarse en lanzar nuevos desarrollos tecnológicos tan pronto como estuvieran listos para ser lanzados, y preocuparse por solucionar los problemas que pudieran causar más adelante .

Este apetito por la disrupción ciertamente ayudó a Facebook a llegar a los 3 mil millones de usuarios, pero “ también dejó a la compañía completamente desprevenida cuando la desinformación, el discurso de odio e incluso la incitación al genocidio comenzaron a aparecer en su plataforma ”.

 

El principal problema, explica Piper , es que la tecnología "a menudo es un sector en el que el ganador se lo lleva todo". Incluso si hay muchos motores de búsqueda diferentes, solo Google controla más del 90% de su mercado. Pero compañías como Microsoft y Baidu ahora tienen " una oportunidad única en la vida de desplazar a Google y convertirse en el gigante de las búsquedas en Internet con una interfaz más amigable y habilitada para IA ". Y aunque no hay nada intrínsecamente malo en este tipo de competencia, es evidente que "cuando se trata de tecnologías muy poderosas, y obviamente la IA será una de las más poderosas de la historia, debemos tener cuidado", Hassabis . insiste _ “No todo el mundo está pensando en esas cosas [es decir, preocupaciones éticas].Es como los experimentadores, muchos de los cuales no se dan cuenta de que tienen material peligroso ". La competencia ciertamente puede ser grande, pero también puede ser amenazante. Como han advertido algunos analistas, “ podríamos tropezar con una catástrofe de IA ”.

Manteniendo los estándares de la ciencia.

Esta es una de las principales preocupaciones de la Sociedad Max Planck. La Sociedad Max Planck para el Avance de la Ciencia es una asociación formalmente independiente, no gubernamental y sin fines de lucro de institutos de investigación alemanes. Fundada en 1911 como la Sociedad Kaiser Wilhelm, pasó a llamarse Sociedad Max Planck en 1948 en honor a su ex presidente, el físico teórico Max Planck.

El pasado febrero, una delegación de la sociedad fue recibida por el Papa Francisco para una audiencia privada en el Vaticano .

En su discurso a la Sociedad, la nota de Sophie Peeters explica : “El Papa Francisco destacó el aprecio de la Santa Sede por la investigación científica y, más específicamente, por el trabajo de la Sociedad Max Planck en su compromiso con el avance de las ciencias y el progreso en sus áreas específicas de investigación”.

Pero, quizás lo más importante, el Pontífice también alentó a la Fraternidad a mantener estándares de “ciencia pura”, es decir, investigación científica que no esté impulsada por prejuicios políticos o por puro interés económico.

Sin embargo, los peligros a los que se enfrenta la ciencia hoy, según el Papa Francisco, no son solo políticos o económicos: el Pontífice ha insistido repetidamente en que se ha dado prioridad a las preocupaciones puramente “técnicas”, sin dejar espacio para la reflexión ética asociada a la investigación tecnológica o los desarrollos científicos. . Cuando se antepone la funcionalidad a lo éticamente lícito, el cuidado del prójimo (que, recuerda el Papa, es la prioridad de toda actividad humana) deja de estar en el horizonte.

IA: enorme desarrollo y una tragedia igualmente enorme

Al concluir su asamblea general sobre tecnologías emergentes en febrero pasado, la Pontificia Academia para la Vida expresó su preocupación por las innovaciones tecnológicas que podrían “destruirlo todo”.

Durante una rueda de prensa, el arzobispo Vincenzo Paglia, presidente de la Academia, pidió una “mesa internacional” para regular estas nuevas tecnologías.

Estas nuevas "tecnologías convergentes" (nanotecnología, biotecnología, ciencias de la computación y ciencias cognitivas), advirtió Paglia, pueden traer un "desarrollo enorme", pero también "una tragedia igualmente enorme", comparándolas con la energía nuclear y enfatizando los peligros de tener algoritmos que deciden sobre humanos. asuntos: “La tecnología sin ética es una cosa muy peligrosa […] necesitamos referirnos a valores y principios morales para tener criterios de evaluación”.

Autor: ALETEIA - Daniel Esparza

Teléfono: (0351) 4215298
E-mail: info@losprincipios.org
Arturo M. Bas 308 - 6º piso - Oficina ‘A’ – Córdoba ARG

Los Principios 2014 ®
todos los derechos reservados