El título de esta noticia podría ser Los avances de la inteligencia artificial: ¿Cómo está cambiando nuestro mundo?

El concepto de «inteligencia artificial» (IA) también se conoce como «aprendizaje automático«, y los dos conceptos son principalmente equivalentes, aunque un tanto engañosos. ¿Puede una máquina realmente aprender? ¿Y se puede definir la inteligencia, y menos aún, crearla artificialmente? Resulta que, el campo de la IA está tan relacionado con las preguntas como con las respuestas, y tanto con cómo pensamos como si la máquina lo hace.

Los conceptos detrás de los modelos de IA actuales en realidad no son nuevos; se remontan a décadas. Pero los avances en la última década han permitido aplicar esos conceptos en escalas cada vez mayores, lo que ha dado lugar a la conversación convincente de ChatGPT y al arte casi real de Stable Diffusion.

Hemos elaborado esta guía no técnica para dar a cualquier persona la oportunidad de comprender cómo y por qué funciona la IA actual.

### Cómo funciona la IA y por qué se parece a un pulpo secreto

Aunque hay muchos modelos de IA diferentes, tienden a compartir una estructura común: grandes modelos estadísticos que predicen el próximo paso más probable en un patrón. Estos modelos en realidad no «saben» nada, pero son muy buenos detectando y continuando patrones. Este concepto fue ilustrado de manera vibrante por los lingüistas computacionales Emily Bender y Alexander Koller en 2020, usando el concepto de «un pulpo hiperninteligente de aguas profundas».

Imagina, si quieres, a ese pulpo que se sienta (o se extiende) con uno de sus tentáculos en un cable telegráfico que dos humanos están usando para comunicarse. A pesar de no conocer inglés, e incluso no tener concepto del lenguaje o de la humanidad, el pulpo puede construir un modelo estadístico muy detallado de los puntos y rayas que detecta.

Aunque no tiene idea de que algunas señales son los humanos diciendo «¿cómo estás?» y «bien, gracias», y aunque no sabría qué significan esas palabras si las supiera, puede ver perfectamente que un patrón de puntos y rayas sigue al otro pero nunca lo precede. ¡Durante años de escuchar, el pulpo aprende tantos patrones tan bien que puede incluso cortar la conexión y continuar la conversación él mismo, de forma muy convincente! Es decir, hasta que aparecen palabras que nunca ha visto, en cuyo caso no hay precedentes para responder.

Esto es una metáfora muy acertada para los sistemas de IA conocidos como grandes modelos de lenguaje, o LLM. Estos modelos alimentan aplicaciones como ChatGPT, y son como el pulpo: no entienden el lenguaje tanto como lo mapean exhaustivamente matemáticamente basándose en los patrones que encuentran en miles de millones de artículos escritos, libros y transcripciones. Como los autores lo pusieron en el artículo: «Al tener solo la forma como datos de entrenamiento, [el pulpo] no aprendió el significado”.

El proceso de construcción de este mapa complejo y multidimensional de palabras y frases que conducen o están asociadas entre sí se llama entrenamiento, del cual hablaremos un poco más adelante.

### Qué puede (y no puede) hacer la IA

Todavía estamos aprendiendo qué puede y qué no puede hacer la IA; aunque los conceptos son antiguos, la implementación a gran escala de la tecnología es muy nueva.

Una de las cosas que la IA ha demostrado ser capaz de hacer es crear fácilmente trabajos escritos de poco valor. Por ejemplo, un borrador de una entrada de blog con la idea general de lo que quieres decir o un poco de contenido para rellenar donde solía ir «Lorem ipsum». También es muy bueno en tareas de codificación a bajo nivel, esas cosas que los desarrolladores junior pasan miles de horas duplicando de un proyecto o departamento a otro. (¡De todas formas, iban a copiarlo de Stack Overflow, ¿verdad?)

Dado que los grandes modelos de lenguaje se basan en el concepto de destilar información útil de grandes cantidades de datos desorganizados, son altamente capaces de clasificar y resumir cosas como largas reuniones, documentos de investigación y bases de datos corporativas.

### Cómo puede salir mal la IA

Los problemas con la IA no son del tipo de los robots asesinos o Skynet por ahora. En cambio, los problemas que estamos viendo se deben en gran medida a las limitaciones de la IA en lugar de a sus capacidades y a cómo las personas eligen usarla en lugar de las elecciones que la IA realiza por sí misma.

Quizás el mayor riesgo con los modelos de lenguaje es que no saben cómo decir «no lo sé». Piensa en el pulpo de reconocimiento de patrones: ¿qué sucede cuando escucha algo que no ha escuchado antes? Sin un patrón existente que seguir, simplemente hace suposiciones basadas en el área general del mapa del lenguaje donde condujo el patrón. Por lo tanto, puede responder de manera genérica, extraña o inapropiadamente. Los modelos de IA también hacen esto, inventando personas, lugares o eventos que sienten que encajarían en el patrón de una respuesta inteligente; llamamos a esto alucinaciones.

Lo realmente preocupante es que las alucinaciones no se distinguen de ninguna manera clara de los hechos. Si le pides a una IA que resuma una investigación y proporcione citas, podría decidir inventar algunos trabajos y autores, pero ¿cómo sabrías que lo ha hecho? La forma en que se construyen los modelos de IA actualmente hace que no haya una manera práctica de prevenir las alucinaciones. Por eso, «sistemas de personas en el bucle» a menudo son necesarios dondequiera que se utilicen en serio modelos de IA. Al requerir que una persona al menos revise los resultados o los verifique, se puede aprovechar la velocidad y versatilidad de los modelos de IA mientras se mitiga su tendencia a inventar cosas.

Otro problema que puede tener la IA es el sesgo; y para eso necesitamos hablar sobre los datos de entrenamiento.

Los avances recientes permitieron que los modelos de IA fueran mucho, mucho más grandes que antes. Pero para crearlos, necesitas una cantidad de datos igualmente grande para que los analice y analice en busca de patrones. Estamos hablando de miles de millones de imágenes y documentos.

Cualquiera podría decirte que no hay forma de extraer mil millones de páginas de contenido de diez mil sitios web y no terminar obteniendo algo objetable, como propaganda neonazi y recetas para hacer napalm en casa. Cuando el artículo de Wikipedia sobre Napoleón recibe el mismo peso que una publicación de blog sobre ser microchipeado por Bill Gates, la IA trata ambos como igualmente importantes.

Lo mismo es cierto para las imágenes: incluso si recopilas 10 millones de ellas, ¿realmente puedes estar seguro de que todas son apropiadas y representativas? Cuando el 90% de las imágenes de stock de directores ejecutivos son de hombres blancos, por ejemplo, la IA acepta eso ingenuamente como verdad.

### Cómo un ‘modelo de lenguaje’ crea imágenes

Plataformas como Midjourney y DALL-E han popularizado la generación de imágenes impulsada por IA, y esto también es posible debido a los modelos de lenguaje. Al mejorar mucho en la comprensión del lenguaje y las descripciones, estos sistemas también pueden entrenarse para asociar palabras y frases con el contenido de una imagen.

Como lo hacen con el lenguaje, el modelo analiza toneladas de imágenes, creando un mapa gigante de imágenes. Y conectando los dos mapas está otra capa que le dice al modelo «este patrón de palabras corresponde a ese patrón de imágenes».

### ¿Y sobre la IA general tomando el control del mundo?

El concepto de «inteligencia artificial general», también llamada «IA fuerte«, depende de a quién preguntes, pero en general se refiere a un software capaz de superar a la humanidad en cualquier tarea, incluido su mejoramiento. Esto, teoriza, podría producir una IA incontrolada que, si no se alinea o limita adecuadamente, podría causar grandes problemas, o si se acepta, elevar a la humanidad a un nuevo nivel.

Pero la IA es solo un concepto, del mismo modo que los viajes interestelares son un concepto. Podemos llegar a la luna, pero eso no significa que tengamos idea de cómo llegar a la estrella vecina más cercana. Así que no nos preocupamos demasiado por cómo sería la vida allá fuera, al margen de la ciencia ficción, de todos modos. Lo mismo sucede con la IA.

Aunque hemos creado modelos de aprendizaje automático altamente convincentes y capaces para algunas tareas muy específicas y fácilmente alcanzables, eso no significa que estemos cerca de crear IA general. Muchos expertos piensan que puede que ni siquiera sea posible, o si lo es, podría requerir métodos o recursos más allá de lo que tenemos acceso.

Por supuesto, eso no debería detener a nadie que desee reflexionar sobre el concepto. Pero es un poco como si alguien estuviera tallando la primera punta de lanza de obsidiana y luego tratara de imaginar la guerra 10,000 años después. ¿Podrían predecir las cabezas nucleares, los drones y los láseres espaciales? No, y es posible que no podamos predecir la naturaleza o el horizonte de tiempo de la IA general, si es que es posible.

### Conclusión

Los conceptos detrás de la inteligencia artificial han permitido grandes avances en la tecnología de la última década. Aunque ha demostrado ser capaz en diversas aplicaciones, la IA también enfrenta desafíos significativos, como sesgos y alucinaciones en la toma de decisiones. Si bien la perspectiva de la IA general es objeto de debate, su impacto en la sociedad actual sigue siendo una cuestión crítica en la que se necesita reflexión.

Vía TechCrunch