Aprendiendo sobre inteligencia artificial sin morir en el intento

Aprendiendo sobre inteligencia artificial sin morir en el intento

Revista El Nogal
Septiembre 2023

Hoy por hoy se habla mucho de inteligencia artificial (IA) y muchas son las dudas e inquietudes que conlleva. Acá le decimos qué es y le damos algunas recomendaciones para que sepa cómo utilizar adecuadamente la IA, las tareas que puede realizar, pros, contras y futuro de esta innovadora tecnología.

Por: Roberto Pardo*

Describir la inteligencia artificial (IA) en pocas palabras es difícil, pero no imposible. La IA estudia la construcción de sistemas con habilidades para realizar tareas que habitualmente requieren de nuestra inteligencia. Desarrollada en los años cincuenta, la IA ha experimentado numerosos avances y retrocesos. La corriente moderna más relevante, IA Generativa, emergió hace seis años y se conoció en el mundo hace solo nueve meses. Esta permite generar contenido -ya sea texto, imágenes (fotografías, ilustraciones, videos) o sonidos (voces humanas, música- con un grado de “inteligencia” comparable al humano.

A paso acelerado

El gran avance de estas tecnologías ha sido posible gracias a la existencia de billones de datos digitalizados, computadores de gran potencia capaces de procesar estos datos en paralelo en centros de datos gigantes y de almacenar grandes volúmenes de datos. Sumado a esto, la invención de algoritmos ingeniosos por científicos ha permitido avanzar en tareas de procesamiento de lenguaje natural, imágenes y sonidos. Finalmente, la difusión masiva de aplicaciones de IA innovadoras a millones de personas ha sido posible gracias a Internet y los dispositivos móviles. Esto parecía ficción hace quince años.

Tengo claro cuáles son las tareas que puede realizar la IA

Estos sistemas desempeñan tareas fundamentales como: responder consultas del estilo “¿Cuáles países limitan con Colombia?”; mantener conversaciones considerando diálogos previos; resumir textos amplios; traducir entre cientos o miles de idiomas; diseñar programas de computación como “Desarrolle una aplicación que permita ingresar nombres de personas en un sitio web y los almacene en una base de datos”; y la más sorprendente, que es generar texto, tal como “Redacte un poema para mi madre al estilo Rafael Pombo” o “Responda este correo usando un estilo formal”. También pueden realizar tareas de razonamiento avanzado como “Analice los pros y contras de ir a Afganistán”; de matemáticas como “Resuelva x en la siguiente ecuación”, y muchas más. Incluso existen sistemas multimodales que transforman texto en imágenes como “Dibuje un barco en un río al atardecer” o viceversa, de imagen a texto como “Describa lo que se ve en esta imagen”. ¿Es esto inteligencia? Quizás no, dado que estos sistemas son modelos matemáticos, pero no cabe duda de que superan nuestra inteligencia en muchas tareas y se perfeccionarán aún más en el futuro próximo.

“La difusión masiva de aplicaciones de IA ha sido posible gracias a Internet y dispositivos móviles. Esto parecía ficción hace quince años”.

Tecnología detrás de la IA

La tecnología que respalda estos sistemas se conoce como “Large Language Models” (LLMs, o Modelos de Lenguaje a Gran Escala), modelos matemáticos entrenados con billones de datos como libros, datos de Internet, redes sociales, imágenes, canciones, discursos, etc. Así, “aprenden” la relación semántica y probabilidad de ocurrencia de palabras, o patrones en imágenes, representados en una red neuronal de billones de parámetros. En estos, “aprender” es afinar sus parámetros, un proceso costoso, prolongado y medioambientalmente impactante. Por ejemplo, se estima que el modelo GPT-4 de OpenAI, la base de chatGPT, utilizó más de 25,000 GPUs (son 3,125 servidores) en la nube durante aproximadamente 100 días, a un costo cercano a US$50 millones, consumiendo entre 51,772,500 y 62,318,750kWh de electricidad y emitiendo entre y 12,456 y 14,994 toneladas métricas de CO2e.

Una vez entrenados con datos generales, estos modelos pueden especializarse con datos temáticos (de medicina, jurisprudencia, financieros, educación, etc.) y se deben alinear con «valores humanos” para evitar lenguaje ofensivo, proteger la privacidad y evitar conversaciones sobre ciertos temas socialmente inaceptables. Los modelos “open source” ya entrenados se pueden copiar para ajustarlos a nuestras necesidades, y esto equivale a una “transferencia de conocimiento”, es decir, a diferencia de lo que nos sucede a los humanos que necesitamos varios años para adquirir conocimiento, en el mundo de los modelos el conocimiento se transfiere copiando un archivo de datos.

Hoy en día, hay más de cien mil modelos implementados, tanto de código abierto como privados, gratuitos o de pago, especializados en diversas tareas y variando en tamaño, potencia y calidad. Algunos basados en LLMs incluyen ChatGPT de OpenAI, Bard de Google y Bing Chat de Microsoft.

Aterrizada a la realidad

Las aplicaciones abarcan áreas diversas: desde educación, justicia, salud y finanzas, hasta marketing, agricultura, seguridad, arte, ciencias sociales y aspectos personales. En medicina, pueden explicar condiciones médicas a los pacientes de manera comprensible, asistir en decisiones clínicas, analizar imágenes y procesar documentos administrativos. En educación pueden generar y corregir exámenes, analizar textos, argumentar y profundizar estudios en cualquier tema. En el ámbito jurídico, generan y analizan documentos legales, predicen resultados procesales, buscan casos similares (precedentes), resumen casos y clasifican procesos. Para escritores, crean borradores de textos y mejoran estilos. En mercadeo, diseñan estrategias y contenidos para campañas publicitarias. En arte, seleccionan colores, generan texturas y restauran obras. Nuestra imaginación, en realidad, es la que establece el límite.

Todo lo que brilla…

Como todo en la vida, esta tecnología tiene puntos débiles, ya que puede traer problemas e implicaciones para la sociedad: sesgo en los datos de entrenamiento (de género, de raza, de condición social, etc.), seguridad (de los datos personales, de los datos privados de una empresa), derechos de autor (de los datos de entrenamiento, de los datos generados), explicabilidad (necesidad de que se expliquen ciertas decisiones), medio ambiente (consumo de energía, emisión de carbono), alucinación (generación de contenido que no es cierto), regulación (para controlar y poner límites en beneficio de la sociedad sin restringir la innovación para prevenir la desinformación), empleabilidad (prepararse para que ciertos trabajos desaparezcan y otros se creen), políticos (el que sabe analizar la información tiene el poder y lo va a usar según le parezca), etc. Todos estos temas son materia de estudio e investigación para tener una IA “responsable”.

Roberto Pardo

*Ingeniero de sistemas y computación de la Universidad de los Andes con tesis de pregrado en IA. Máster (M.Sc.) en Ciencias de la Computación y doctorado (Ph.D.) en sistemas distribuidos en el Departamento de ciencias de la computación de Ohio State University. Es consultor en informática del Banco Mundial y de algunas empresas privadas, conferencista y profesor de la Universidad de los Andes, Universidad Javeriana, Universidad de Investigación y Desarrollo, Universidad Piloto, entre otras.