Si no puedes diferenciar entre AGI y RAG, no te preocupes. Estamos aquí para ayudarte.
La inteligencia artificial (IA) es la última tendencia en tecnología. Parece que todas las empresas hablan de sus avances en el uso o desarrollo de IA. Pero el campo también está lleno de jerga, lo que puede hacer que entender cada nuevo avance sea muy difícil.
Para ayudarte a entender mejor lo que está sucediendo, hemos creado una lista de algunos términos comunes en IA. Nos esforzamos por explicar qué significan y por qué son importantes.
¿Qué es exactamente la IA?
Inteligencia artificial: a menudo abreviada como IA, es la disciplina de la informática que se dedica a crear sistemas informáticos que puedan pensar como humanos.
Hoy en día, escuchamos mucho sobre la IA como tecnología o incluso como una entidad, lo que hace que su definición sea más mutable de lo que debería ser debido a su uso frecuente en el marketing.
Por ejemplo, Google habla mucho sobre cómo ha invertido años en IA. Esto se refiere a cómo muchos de sus productos se mejoran con inteligencia artificial, como Gemini. También existen los modelos subyacentes de IA que impulsan muchas herramientas, como GPT de OpenAI. Luego está el CEO de Meta, Mark Zuckerberg, que ha utilizado la palabra IA para referirse a chatbots individuales.
A medida que más empresas intentan vender la IA como el gran futuro, las formas en que utilizan el término y otras nomenclaturas relacionadas pueden volverse aún más confusas. Hay una gran cantidad de frases que probablemente encontrarás en artículos o material de marketing sobre IA, por lo que hemos elaborado esta descripción general de muchos de los términos clave en inteligencia artificial que se están utilizando actualmente. Sin embargo, en última instancia, todo se reduce a intentar hacer que las computadoras sean más inteligentes.
(Ten en cuenta que solo estoy dando una descripción básica de muchos de estos términos. Muchos de ellos pueden volverse muy científicos, pero este artículo debería brindarte una idea de los conceptos básicos).
Aprendizaje automático: los sistemas de aprendizaje automático se entrenan con datos para que puedan hacer predicciones sobre nueva información. De esa manera, pueden «aprender». El aprendizaje automático es un campo dentro de la inteligencia artificial y es fundamental para muchas tecnologías de IA.
Inteligencia artificial general (IAG): inteligencia artificial que es tan inteligente como un ser humano o más inteligente (OpenAI, en particular, está invirtiendo fuertemente en IAG). Esta podría ser una tecnología increíblemente poderosa, pero para muchas personas también es potencialmente la perspectiva más aterradora sobre las posibilidades de la IA (¡piensa en todas las películas que hemos visto sobre máquinas superinteligentes que se apoderan del mundo!). Si eso no es suficiente, también se está trabajando en la “superinteligencia”, o IA que es mucho más inteligente que un ser humano.
IA generativa: una tecnología de IA capaz de generar nuevos textos, imágenes, códigos y más. Piensa en todas las respuestas e imágenes interesantes (aunque a veces problemáticas) que has visto que producen ChatGPT o Gemini de Google. Las herramientas de IA generativa funcionan con modelos de IA que normalmente se entrenan con grandes cantidades de datos.
Alucinaciones: no, no estamos hablando de visiones extrañas. Se trata de esto: debido a que las herramientas de IA generativa son tan buenas como los datos con los que se entrenan, pueden «alucinar» o inventar con confianza lo que creen que son las mejores respuestas a las preguntas. Estas alucinaciones (o, para ser completamente honestos, tonterías) significan que los sistemas pueden cometer errores factuales o dar respuestas sin sentido. Incluso existe cierta controversia sobre si las alucinaciones de la IA pueden «arreglarse» alguna vez.
Sesgo: las alucinaciones no son los únicos problemas que han surgido al trabajar con IA (y este podría haberse previsto, ya que, después de todo, las IA están programadas por humanos). Como resultado, dependiendo de sus datos de entrenamiento, las herramientas de IA pueden demostrar sesgos. Por ejemplo, una investigación de 2018 de Joy Buolamwini, científica informática del MIT Media Lab, y Timnit Gebru, fundadora y directora ejecutiva del Distributed Artificial Intelligence Research Institute (DAIR), mostró cómo el software de reconocimiento facial tenía tasas de error más altas al intentar identificar el género de mujeres de piel más oscura.
¿Y qué pasa con los modelos?
Modelo de IA: los modelos de IA se entrenan con datos para que puedan realizar tareas o tomar decisiones por sí mismos.
Modelos de lenguaje grandes, o LLM: un tipo de modelo de IA que puede procesar y generar texto en lenguaje natural. Claude de Anthropic, que según la empresa es «un asistente útil, honesto e inofensivo con un tono conversacional», es un ejemplo de LLM.
Modelos de difusión: modelos de IA que se pueden utilizar para generar imágenes a partir de indicaciones de texto, por ejemplo. Se entrenan añadiendo primero ruido (como estática) a una imagen y luego invirtiendo el proceso para que la IA haya aprendido a crear una imagen clara. También hay modelos de difusión que funcionan con audio y vídeo.
Modelos de base: estos modelos de IA generativos se entrenan con una gran cantidad de datos y, como resultado, pueden ser la base de una amplia variedad de aplicaciones sin un entrenamiento específico para esas tareas. (El término fue acuñado por investigadores de Stanford en 2021). GPT de OpenAI, Gemini de Google, Llama de Meta y Claude de Anthropic son ejemplos de modelos de base. Muchas empresas también están comercializando sus modelos de IA como multimodales, lo que significa que pueden procesar múltiples tipos de datos, como texto, imágenes y videos.
Modelos de frontera: además de los modelos básicos, las empresas de IA están trabajando en lo que llaman “modelos de frontera”, que es básicamente un término de marketing para sus modelos futuros inéditos. En teoría, estos modelos podrían ser mucho más potentes que los modelos de IA que están disponibles en la actualidad, aunque también existe la preocupación de que podrían plantear riesgos significativos.
¿Cómo obtienen los modelos de IA toda esa información?
Bueno, están entrenados. El entrenamiento es un proceso mediante el cual los modelos de IA aprenden a comprender los datos de maneras específicas mediante el análisis de conjuntos de datos para que puedan hacer predicciones y reconocer patrones. Por ejemplo, los modelos de lenguaje de gran tamaño se han entrenado «leyendo» grandes cantidades de texto. Eso significa que cuando las herramientas de IA como ChatGPT responden a sus consultas, pueden «entender» lo que usted está diciendo y generar respuestas que suenen como lenguaje humano y aborden el tema de su consulta.
El entrenamiento suele requerir una cantidad significativa de recursos y potencia informática, y muchas empresas dependen de potentes GPU para ayudar con este entrenamiento. Los modelos de IA pueden recibir distintos tipos de datos, normalmente en grandes cantidades, como texto, imágenes, música y vídeo. Esto se conoce, lógicamente, como datos de entrenamiento.
Los parámetros, en resumen, son las variables que un modelo de IA aprende como parte de su entrenamiento. La mejor descripción de lo que eso significa en realidad proviene de Helen Toner, directora de estrategia y subvenciones de investigación fundamental en el Centro de Seguridad y Tecnología Emergente de Georgetown y ex miembro de la junta directiva de OpenAI:
«Los parámetros son los números dentro de un modelo de IA que determinan cómo una entrada (por ejemplo, un fragmento de texto de un mensaje) se convierte en una salida (por ejemplo, la siguiente palabra después del mensaje). El proceso de ‘entrenamiento’ de un modelo de IA consiste en utilizar técnicas de optimización matemática para ajustar los valores de los parámetros del modelo una y otra vez hasta que el modelo sea muy bueno en la conversión de entradas en salidas.»
En otras palabras, los parámetros de un modelo de IA ayudan a determinar las respuestas que luego te darán. A veces, las empresas se jactan de la cantidad de parámetros que tiene un modelo como una forma de demostrar la complejidad de ese modelo.
¿Existen otros términos con los que te puedas encontrar?
Procesamiento del lenguaje natural (PLN): la capacidad de las computadoras para comprender el lenguaje humano.
Inferencia: generación de respuestas por parte de una IA generativa.
Tokens: unidades de texto que son analizadas por modelos de IA.
Red neuronal: un enfoque en el procesamiento de datos que se basa en la arquitectura de los nodos que, a su vez, imita cómo se procesa la información en el cerebro.
Transformador: una arquitectura con una atención especial para procesar secuencias de datos.
RAG: «generación mejorada por recuperación», una forma de hacer que las respuestas de una IA generativa sean más precisas mediante el uso de un contexto adicional.
Hardware de IA: las GPUs, como el chip H100 de Nvidia, y las NPUs, que se encuentran en dispositivos como teléfonos inteligentes.
TOPS: «trillones de operaciones por segundo», una métrica para medir la velocidad de los chips de IA.
Aplicaciones de IA: las empresas líderes en el desarrollo de tecnología basada en IA.
¿Entonces, qué son todas estas diversas aplicaciones de inteligencia artificial de las que tanto se habla?
Existen numerosas empresas líderes en el desarrollo de tecnología y herramientas basadas en IA. Algunas son gigantes consolidados en la industria tecnológica, mientras que otras son empresas emergentes más recientes. Aquí están algunos de los actores principales:
- OpenAI / ChatGPT: La relevancia actual de la IA podría atribuirse en gran medida a ChatGPT, el chatbot lanzado por OpenAI a finales de 2022, cuya repentina popularidad sorprendió a las grandes empresas tecnológicas, llevando a muchas otras a destacar sus capacidades en IA.
- Microsoft / Copilot: Microsoft está integrando Copilot, su asistente de IA basado en los modelos GPT de OpenAI, en tantos productos como sea posible. Además, la empresa tecnológica de Seattle posee una participación del 49% en OpenAI.
- Google / Gemini: Google está compitiendo activamente para mejorar sus productos con Gemini, tanto el asistente de IA de la compañía como sus diversos modelos de inteligencia artificial.
- Meta / Llama: Meta está centrando sus esfuerzos en inteligencia artificial alrededor de Llama (Large Language Model Meta AI), un modelo de código abierto, a diferencia de los de otras grandes empresas tecnológicas.
- Apple / Apple Intelligence: Apple está integrando nuevas funcionalidades centradas en IA en sus productos bajo el nombre de Apple Intelligence. Una de las innovaciones destacadas es la integración de ChatGPT en Siri.
- Anthropic / Claude: Anthropic, fundada por ex empleados de OpenAI, desarrolla los modelos de inteligencia artificial de Claude. La empresa ha recibido inversiones significativas, incluidos 4 mil millones de dólares de Amazon y cientos de millones de dólares más de Google, con la posibilidad de una inversión adicional de 1.5 mil millones de dólares. Recientemente, contrató a Mike Krieger, cofundador de Instagram, como director de productos.
- xAI / Grok: Esta empresa de inteligencia artificial fundada por Elon Musk desarrolla Grok, un LLM. Recientemente, recaudó 6 mil millones de dólares en financiamiento.
- Perplexity: Conocida por su motor de búsqueda impulsado por IA, Perplexity ha sido objeto de escrutinio debido a sus prácticas de extracción de datos.
- Hugging Face: Funciona como una plataforma que sirve de directorio para modelos y conjuntos de datos de inteligencia artificial.