top of page
Adm.

Los límites de la Inteligencia Artificial

Forbes.


Ya no es tan fácil saber si esta nota la escribió una máquina. La mayoría de las personas de la actualidad son completamente incapaces de saber si un texto traducido proviene de un traductor online basado en Inteligencia Artificial (IA) o de un especialista humano en la materia. La tecnología evolucionó tanto que los especialistas dan por sentado que “hemos resuelto el problema de la traducción”, como señala Roberto Bunge, director de la carrera de Inteligencia Artificial en UdeSA. El que no se sepa si esta nota proviene de una IA es parte del gran avance reciente y la raíz de problemas a los que la humanidad se expondrá por primera vez en su historia. El auge de ChatGPT remixó una frase de Bill Gates y ahora entramos en la era: “La inteligencia artificial en la punta de tus dedos”.

Y es así que en los grupos de WhatsApp se van comentando las charlas más divertidas que se tienen con ChatGPT. El software de la empresa OpenAI llevó al estrellato a su joven CEO Sam Altman, y desató una carrera en Silicon Valley por financiar empresas de todo tipo relacionadas con el rubro. El objetivo de las compañías es reemplazar tareas automatizables liberando más tiempo de creatividad. Los docentes ya cuestionan si estas tecnologías deben ser prohibidas. Es que ChatGPT aprobó exámenes de gran complejidad como los universitarios. No estaba preparado el sistema educativo para recibir el impacto de la criatura de OpenAI. El mundo de los negocios está siendo sacudido por lanzamientos casi diarios. Por ejemplo, la empresa Salesforce lanzó EinsteinGPT que bucea dentro de los datos corporativos. Globant compró la empresa GeneXus y presentó una solución de IA para programadores. Type.ai permite escribir con un asistente inteligente que va aconsejando cómo realizar cada párrafo desterrando el síndrome de la página en blanco. Y los anuncios se multiplican sin cesar.

Los Gurúes de la tecnología advierten del peligro “Estamos un poco asustados por esto”, admitió en diálogo con ABC News, entrevista que fue replicada por The Guardian. Aunque confía en la seguridad de su compañía aseguró que “seguro existirán otras personas y compañías que no impongan los límites de seguridad que ponemos nosotros”. Y opinó: “Creo que la sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo regularlo, cómo manejarlo”.

Sam Altman CEO de OpenAIElon Musk por su parte advirtió que esta combinación de algoritmos que parece tener vida propia es “más peligrosa que un arma nuclear”. El dueño de Twitter se quejó también de la falta de supervisión sobre la IA. “¿Qué nos quedará por hacer a los humanos?”, lanzó a través de su red social la semana pasada.

Mientras tanto, Bill Gates sostuvo en su sitio web Gates Notes que, junto con gran cantidad de usos benignos que pueden hacerse de la inteligencia artificial, también hay “riesgos y preocupaciones”. “Existe la amenaza que representan los humanos armados con IA”, resalta el magnate y confundador de Microsoft.

“Luego existe la posibilidad de que las IA se salgan de control. ¿Podría una máquina decidir que los humanos son una amenaza, concluir que sus intereses son diferentes a los nuestros o simplemente dejar de preocuparse por nosotros? Posiblemente”, dijo Gates sin reparos. Las tendencias en IA aún están lejos de los temores de Bill Gates pero ya caminan hacia lo que definen como multimodalidad. Por ejemplo, la nueva versión de ChatGPT es capaz de extraer información de imágenes y video. La semántica entonces se expande por diversas fuentes de contenido. Por otra parte, la IA evoluciona para que se le pida cosas como: “Necesito una imagen de una mesa con cinco ejecutivos” o “Armar un video de una mariposa sobre flores amarillas”.

Elon MuskTantos éxitos no están llenos de desafíos. La IA aprende a partir de datos. La información que maneja ChatGPT llega hasta 2021. No sabe que Messi fue campeón del mundo, pero sobre todo no entiende si las reglas básicas cambian. Si el lenguaje inclusivo hubiese surgido este año le sería incomprensible de tratar. Y esto es así porque la IA es muy fuerte cuando los datos de los que parte son confiables y las reglas del juego están claras. En el ajedrez nadie, ni el gran campeón Magnus Carlsen le puede hacer ni sombra a un sistema de IA. Pero en la vida real los datos a veces no son del todo claros, y las regla para interpretarlos pueden cambiar.

Hay áreas que a su vez son grises. La conducción autónoma surgió hace mas de 10 años. Los autos de Google andaban bárbaro por el campus de San Francisco y se pensaba que muy pronto conducir ya no sería una tarea para humanos. “El problema fue más difícil de lo que se pensaba inicialmente. Hoy sabemos que cada lugar requiere un entrenamiento específico de la IA, no es lo mismo conducir en Argentina que en la India o Estados Unidos”, comenta Bunge. Otro tema donde la IA es cuestionada es que no puede mostrar de dónde saca sus resultados. Estos sistemas aprenden por ensayo y error (como los basados en Machine Learning) en un proceso basado en técnicas de probabilidades y estadísticas. Nos pueden decir que dos rostros son iguales, pero no porqué se llegó a esa conclusión. “No es como una ecuación donde conocemos los datos ingresados y los que salieron, y además sabemos que esa ecuación es un modelo como la ley de la gravitación que entendemos cómo se formó”, advierte Irad Ben-Gal, director del laboratorio de Machine Learning de la Universidad de Tel Aviv. Pioneras como IBM advierten la necesidad de establecer una ética desde el momento mismo en que se desarrollan los sistemas. Los desarrollos de la IA son tan vertiginosos que nuevos peligros se desatan en el corazón de las aplicaciones tecnológicas. Raúl Cebral, un destacado físico argentino desarrolló modelos para predecir la ruptura de aneurismas cerebrales desde la Universidad George Mason en Estados Unidos. Se trata de un área compleja de la mecánica de fluidos. La sangre tiene su viscosidad, densidad, temperatura, presión y otros parámetros que vuelven complejos los cálculos. “Pero comprendemos la teoría, tenemos la ecuación de Navier Stokes. Debemos usar supercomputadoras, pero el comprender la teoría física subyacente nos hace que podamos extrapolar escenarios. Podemos reconstruir la red de arterias de cada cerebro en particular y así estudiar los casos de cada persona”, afirma Cebral. Sin embargo, otros investigadores vieron que era mucho más rápido entrenar un modelo de Machine Learning. “El problema es el sesgo que parte desde el conjunto de datos con el cual fue entrenado. Entonces si hay un cambio no previsto los resultados van a estar mal. Por ejemplo, desde un plano inclinado se puede deducir la ley de gravitación con Machine Learning, pero si viene un viento fuerte que interfiere van a decir cualquier cosa. Estamos entonces en situaciones donde tenemos la ecuación porque entendemos el problema e igual no quieren usarla”, advierte Cebral. Si los datos del mundo físico que son “duros” en el sentido que sus valores son más inmutables que sucede sobre los datos “blandos” del mundo humano cuya semántica cultural y emocional cambia. Y es por eso que los problemas recién comienzan.

Si Putin necesitó un ejército de trolls para derrotar a Hilary Clinton ahora su inversión bajaría a centavos. La IA en la punta de los dedos es un arma de la cual sólo un nuevo sentido del entendimiento podrá defendernos. En un mar de falsedades habrá que distinguir si lo dicho provino de un humano que dice lo que dice y además más y otra cosa cómo enseñara Alejandra Pizarnik. El nuevo escenario quizá evolucione hacia la curación de contenidos donde los medios tengan su revancha. Y sino solo puedo decir que esta nota la escribí yo porque conocí la muerte de nuestro compañero José Luis Cabezas. Y, desde ese día, aunque escribamos más despacio que la IA, sabemos que foto debemos teclear.

Comments


bottom of page