La Inteligencia Artificial (IA) cobró recientemente un gran protagonismo en la opinión pública, primero a partir del lanzamiento del modelo de lenguaje más avanzado hasta el momento, Chat GPT-4, de la empresa OpenAI, y luego a raíz del pronunciamiento mundial de un grupo de científicos, investigadores y empresarios (la carta abierta ya lleva más de 10.000 firmas), quienes advirtieron sobre los riesgos de continuar la carrera de desarrollo de IA sin ningún tipo de regulación y reclamaron un acuerdo de las principales compañías para suspender por un tiempo (quizás demasiado breve) el avance de estas tecnologías.
"Es un tema actual que las computadoras se salgan de control"
Chat GPT-4 es el modelo de lenguaje de Inteligencia Artifical más avanzado hasta ahora.
Diego Evin, bioingeniero y docente de la Facultad de Ingeniería de la Universidad Nacional de Entre Ríos y doctor en Ciencias de la Computación de la Universidad de Buenos Aires, trabaja hace 20 años en la enseñanza y la investigación de esta tecnología. En una entrevista difundida por la casa de estudios radicada en Oro Verde, el especialista se refirió al debate vigente y a la IA, desde nociones básicas hasta sus aspectos más complejos y hasta inciertos,. También habló de sus beneficios en campos como la salud.
— ¿Qué es la Inteligencia Artificial?
— Es un área de las Ciencias de la Computación que busca desarrollar sistemas capaces de realizar tareas que típicamente necesiten inteligencia humana, como entender lenguaje natural, interpretar imágenes, tomar decisiones o planificar. Una de sus características es que pueden mejorar a partir de la experiencia. Hay algoritmos que se entrenan a medida que se usan: son Aprendizajes por Refuerzo. De acuerdo a si hace la tarea bien o mal, modifican sus estados internos, que es lo que modela el algoritmo.
— ¿Qué es un algoritmo?
— Es una serie de pasos y definiciones de un proceso para resolver un problema computacional. Para problemas que tienen solución conocida se le dice a la computadora la serie de pasos que tiene que seguir. Los de Inteligencia Artificial son un grupo particular de algoritmos. No les explicamos nosotros cómo tienen que resolver el problema, sino que se encargan de aprender sola a resolver un problema. Eso se denomina Aprendizaje Automático, Maquinal o Machine Learning.
— ¿Qué tipo de aplicaciones hay en Salud o Biología?
— Existen muchas aplicaciones. Por ejemplo, en la Facultad de Ingeniería de la UNER hay un proyecto para identificar retinopatía en bebés prematuros, una patología que puede llevar a la ceguera. Tamién se trabaja en interfaces cerebro-computadora, en la detección de apnea de sueño, de patologías en la voz y de reconocimiento automático del habla. En Bioinformática se trata de predecir cómo se van a integrar secuencias de aminoácidos para formar proteínas, o en la búsqueda y caracterización de nuevas moléculas para utilizar como medicamentos.
Un futuro incierto
— ¿Qué trasfondo tiene la carta abierta que pidió suspender los avances de Inteligencia Artificial?
— Esa carta surgió desde el Instituto Future of Life, conformado por gente muy reconocida en ámbitos académicos y empresarios para advertir que el desarrollo tecnológico no lleve a la extinción de la vida, a un futuro en que las máquinas puedan sobrepasar la capacidad de inteligencia del ser humano y revelarse contra sus creadores. Sería lo que veíamos como ciencia ficción tiempo atrás, por ejemplo en la película Terminator: llegar a un punto en que los sistemas empiecen a tomar decisiones por sí mismos. No es un chiste ni trivial. Es una hipótesis posible. Lo que se pide es pausar por seis meses el desarrollo de sistemas con potencia superior a GPT-4. Nadie sabe, salvo OpenAI, cómo funciona internamente y cuál es su verdadero potencial.
— ¿Qué riesgos puntuales hay?
— Uno es la información falsa. Estos sistemas ya tienen capacidad de crear imágenes falsas, como las conocidas del Papa Francisco con campera. Otro es automatizar todos los trabajos. La propia OpenAI analizó que hay un 80% de actividades que podrían tener parte de sus tareas reemplazadas.. Por otro lado, el riesgo de perder el control y que la civilización empiece a ser controlada por las máquinas. Por ejemplo, que los algoritmos se comuniquen con una fábrica de robots y ordenen construirlos. Son riesgos reales. Open AI está desarrollando formas de que estos sistemas puedan comunicarse con otros programas. Podrían acceder a nuestra información personal en redes sociales o incluso bancaria.
“Los cambios que trajo Internet fueron bastante paulatinos, esto va a ser mucho más abrupto”
— ¿Sirve de algo frenar durante seis meses?
— Ese planteo no es ingenuo. Saben que en seis meses no se va a frenar nada. Con buena fe, asumo que se quiere promover leyes o normas que regulen un poco el desarrollo. Según otras interpretaciones, buscan ganar tiempo para otras empresas. Hay en curso una carrera geopolítica. China tiene un plan para ser líder en IA para 2030, pero Estados Unidos no quiere perder esa posición.
— ¿Siempre hay un humano detrás de las máquinas?
— Uno de los ejes la gobernanza de esta tecnología es el alignment (alineamiento) de la Inteligencia Artificial: mecanismos que eviten que las computadoras se salgan del control humano o que valoren las consecuencias de sus acciones antes de emprenderlas. Es un debate muy actual. Hay opiniones que dicen que ahora es imposible y gente que propone acuerdos de gobernanza y transparentar los algoritmos para saber qué datos utilizan y cómo. También se habla de auditorías: por ejemplo, que otra empresa pueda valorar externamente qué efectos o consecuencias puede tener la tecnología antes de que salga al mercado. Es decir, una autoregulación de las mismas compañías.
— ¿Cuál es tu posición ante el debate?
— En resumen, pienso que los seis meses no van a lograr nada y están dirigiéndose a una sola empresa. Sí veo necesario plantear la gobernanza, las fake news y la automatización de trabajos. La IA trae beneficios revolucionarios como algoritmos que permiten detectar nuevas moléculas que se puedan usar como medicamentos. Pero también se pueden utilizar para alterar genéticamente organismos, lo que implica abrir una caja de Pandora. Es una cuchilla de doble filo. Hubo otra carta menos difundida, del Encuentro Latinoamericano sobre Inteligencia Artificial - Khipu 2023, que introdujo una perspectiva latinoamericana, la necesidad de democratización de la IA y recaudos sobre los sesgos de estos programas, basados en los mercados norteamericanos y europeos.






















