
Glosario Ejecutivo de Inteligencia Artificial
La Inteligencia Artificial dejó de ser ciencia ficción para convertirse en nuestra compañera de escritorio. Sin embargo, tiene su propio dialecto. Para que puedas aplicar estas herramientas con criterio profesional (y no quedarte afuera de la conversación), hemos preparado esta guía de referencia.
A continuación, encontrarás el glosario ejecutivo ordenado alfabéticamente, una masterclass sobre cómo dar instrucciones (prompts) y una sección técnica profunda para los más curiosos.
Agentes de IA
Software con capacidad de acción autónoma. A diferencia de un chatbot pasivo, un agente no solo genera respuestas, sino que utiliza herramientas (navegador, calendario, APIs) para ejecutar tareas de principio a fin.
- La diferencia: Un chat te informa sobre vuelos; un agente accede al sistema y realiza la reserva por vos.
- Estructura: Es un sistema capaz de planificar y ejecutar acciones para cumplir un objetivo. Se compone de tres pilares: un Modelo (el cerebro), Herramientas (capacidad de actuar) y una Capa de Orquestación.
Agentes de Búsqueda (Search Agents)
Evolución de los buscadores tradicionales. En lugar de darte una lista de links, la IA navega, lee y te entrega la respuesta sintetizada citando las fuentes originales.
- Ejemplos: Perplexity, el modo "Search" de ChatGPT o el propio Deep Research de Google.
Alucinación
Generación de información falsa o inventada que el modelo presenta con total seguridad y coherencia gramatical.
- Causa: El modelo predice secuencias por probabilidad estadística, no por verificación de hechos. Ante un vacío de información, "rellena" el contenido con lo que resulta semánticamente probable, aunque sea fácticamente erróneo.
Deep Research (Investigación Profunda)
Capacidad de la IA para realizar búsquedas iterativas en la web. El modelo navega, analiza múltiples fuentes, contrasta datos contradictorios y sintetiza un informe final con citas y referencias.
- Diferencia clave: Requiere tiempo de "pensamiento" (minutos) para procesar la información, a diferencia de la respuesta inmediata de un chat convencional.
Fine-Tuning (Ajuste Fino)
Proceso técnico de entrenamiento adicional sobre un modelo fundacional utilizando un conjunto de datos específico y curado.
- Uso estratégico: Se justifica cuando la IA requiere aprender un dominio especializado (terminología médica, marcos legales) o un formato de salida propietario que no se logra mediante ingeniería de prompts.
Gems
Versiones personalizadas de Gemini que funcionan como expertos en tareas específicas. Son el equivalente a los GPTs de OpenAI o los Skills de Anthropic (Claude).
- Conectividad y Ecosistema: Se integran nativamente con el ecosistema de Google. Pueden conectarse a Google Drive para analizar documentos, a Gmail para gestionar correos o incluso utilizar tecnología RAG a través de fuentes externas y herramientas como NotebookLM para una base de conocimiento hiperespecífica.
- Caso de uso (Media): Un "Inspector de Zócalos" para un canal de TV. El Gem recibe el feed de texto o imagen de la transmisión, verifica en tiempo real si hay errores de ortografía, si el nombre del entrevistado coincide en la búsqueda de Google y si el tono cumple con el manual de estilo de la señal antes de salir al aire.
Iterar / Iteración
Proceso de repetir un ciclo de operaciones con el objetivo de perfeccionar un resultado. En IA, no se busca la perfección en el primer intento, sino que se progresa mediante pruebas sucesivas.
- En Prompts: Es el acto de ajustar las instrucciones basándose en la respuesta anterior de la IA para corregir errores o profundizar en un punto específico.
LLM (Modelos de Lenguaje Extensos)
Siglas de Large Language Models. Son redes neuronales entrenadas con volúmenes masivos de datos que impulsan herramientas como Gemini o GPT. Su función principal es predecir la siguiente unidad de información en una secuencia basándose en patrones estadísticos aprendidos.
Multimodalidad
Capacidad nativa de un modelo para procesar y relacionar diferentes tipos de inputs simultáneamente: texto, imagen, audio, video y código.
- Utilidad: Permite analizar un video para extraer insights o transformar un esquema dibujado a mano directamente en código funcional.
Nano Banana
Nombre clave de la arquitectura de generación de imágenes de última generación desarrollada por Google (que potencia las versiones más avanzadas de Imagen 3).
- Por qué es relevante: Es el motor detrás de herramientas de generación visual y flujos de trabajo profesionales. Se destaca por una renderización de texto superior (carteles legibles dentro de la imagen) y una adherencia estricta a prompts complejos.
NotebookLM
Herramienta de Google basada en tecnología RAG diseñada específicamente para el análisis y síntesis de información propia.
- Función estrella: Permite cargar documentos (PDF, web, audio) para generar un "Audio Overview": un podcast conversacional entre dos IAs que resume y explica el material. Es ideal para asimilar reportes extensos mediante aprendizaje auditivo.
Prompt Engineering
Disciplina técnica enfocada en diseñar y optimizar las entradas de texto (instrucciones) para guiar a los modelos de IA hacia resultados precisos, consistentes y útiles. (Ver desglose completo más abajo).
RAG (Generación Aumentada por Recuperación)
Siglas de Retrieval-Augmented Generation. Es una arquitectura que permite a la IA consultar fuentes de información externas y actualizadas antes de generar una respuesta.
- Por qué es vital: Reduce drásticamente las alucinaciones. En lugar de confiar solo en lo que "aprendió" durante su entrenamiento, la IA busca primero en tus documentos o bases de datos y responde basándose exclusivamente en esa evidencia técnica.
Razonamiento (Chain of Thought)
Técnica donde el modelo "piensa" y desglosa un problema en pasos intermedios lógicos antes de entregar la respuesta final. Es crítico para matemáticas, lógica de programación y análisis estratégico.
Ventana de Contexto
El límite de memoria de trabajo de la IA en una sola sesión. Se mide en "tokens".
- Impacto: Modelos con ventanas masivas (como 1 o 2 millones de tokens) pueden "leer" y analizar miles de documentos o líneas de código en simultáneo sin olvidar el principio de la conversación.
MASTERCLASS: Anatomía de un Prompt Profesional
Si el LLM es el motor, el prompt es el volante. La mayoría de los errores de la IA no son fallos del modelo, sino instrucciones ambiguas. Para obtener resultados de nivel empresarial, tu prompt debe cubrir estos 6 componentes:
- La Persona (El Rol): Define quién está hablando. Ajusta el vocabulario y el tono.
Ejemplo: "Actúa como un Editor Jefe de Tecnología con 20 años de experiencia..." - El Contexto y el Objetivo: Define para qué y para quién es el trabajo. Sin contexto, la IA asume un promedio mediocre.
- La Tarea (El Verbo): Sé específico con la acción. Evita verbos débiles como "haz". Usa: "Analiza", "Extrae", "Refactoriza", "Resume".
- Las Restricciones: Define los límites. A veces es más importante decirle qué NO hacer.
Ejemplo: "No uses jerga técnica. No superes las 500 palabras." - El Formato de Salida: La IA no adivina estructuras visuales. Pídele tablas, listas, markdown o código JSON.
- Parámetros de Control (Técnicos):
- Temperatura Baja (0.1 - 0.3): Para código, finanzas y hechos. La IA es precisa y "robótica".
- Temperatura Alta (0.7 - 1.0): Para brainstorming y creatividad. La IA es variada y arriesgada.
PLANTILLA DE PROMPT ESTRUCTURADO
[ROL] Actúa como Consultor Senior de Negocios.
[CONTEXTO] Estamos lanzando un nuevo servicio de fibra óptica en una zona rural competitiva.
[TAREA] Analiza las posibles objeciones de venta de los clientes locales y genera un guion de respuestas para nuestros vendedores.
[RESTRICCIONES] Usa un lenguaje cercano y coloquial (español argentino), evita tecnicismos complejos sobre latencia.
[FORMATO] Lista de viñetas con formato: "Objeción" -> "Respuesta sugerida".
[TEMPERATURA] Mantén un tono equilibrado.
BONUS TRACK: El "Lado B" del Diccionario
Para profundizar, aquí están los conceptos técnicos, éticos y estructurales que completan el panorama de la Inteligencia Artificial.
1. La Estructura y el Aprendizaje
Algoritmo
Más que un simple conjunto de reglas, es la "receta" matemática paso a paso que define cómo la máquina debe procesar la información para resolver un problema. En IA, el algoritmo no es estático; evoluciona. Es la lógica subyacente que le dice al sistema: "si ves esto, calcula aquello y decide esto otro". Sin algoritmo, no hay proceso.
Datos (Datasets)
Es el combustible de la IA. No hablamos solo de archivos, sino de la inmensidad de textos, imágenes y registros usados para entrenar a los modelos. La calidad de la IA depende estrictamente de la calidad de estos datos: si alimentas al sistema con datos incompletos o sesgados, obtendrás respuestas deficientes (Garbage in, Garbage out).
Entrenamiento vs. Inferencia
Son los dos estados de vida de una IA:
- Entrenamiento: La etapa de aprendizaje. Requiere meses y un poder de cómputo masivo para que el modelo lea y aprenda patrones.
- Inferencia: El momento de uso. Ocurre cuando el modelo ya está entrenado y tú le haces una pregunta. La IA usa lo aprendido para darte una respuesta en segundos.
Machine Learning vs. Deep Learning
- Machine Learning: Disciplina donde el sistema aprende de ejemplos y mejora con la experiencia, en lugar de seguir reglas rígidas programadas.
- Deep Learning: La versión avanzada. Utiliza Redes Neuronales (inspiradas en el cerebro humano) para procesar datos de forma no lineal, permitiéndole entender conceptos abstractos como una imagen o la ironía en un texto.
2. El Impacto y la Sociedad
Sesgo (Bias)
Es el reflejo de los prejuicios humanos en la tecnología. Si los datos históricos con los que se entrenó la IA contienen discriminación, el modelo replicará esos patrones. No es que la máquina sea "mala", es que aprendió de una base de datos imperfecta.
Deepfake
Manipulación sintética de la realidad mediante Deep Learning. Puede reemplazar rostros en videos o clonar voces con realismo fotográfico. Su existencia plantea desafíos serios sobre la suplantación de identidad y la confianza en los medios digitales.
Caja Negra (Explicabilidad)
El problema de saber qué decidió la IA, pero no por qué. La "Explicabilidad" es el esfuerzo técnico por hacer que los modelos complejos puedan justificar sus pasos de forma que un humano entienda la lógica detrás de una decisión.
Impacto Laboral y Automatización
La IA trae la automatización cognitiva. Ya no se trata solo de robots en fábricas, sino de software capaz de redactar, programar o diseñar. El cambio apunta hacia la transformación de roles: el profesional que usa IA tiene una ventaja competitiva sobre quien no la integra.
3. Las Reglas del Juego
Gobernanza y Regulación
La Gobernanza son las estructuras internas de las empresas para usar IA de forma segura. La Regulación son las leyes externas (como la Ley de IA de la UE) que buscan poner límites para proteger derechos, asegurar la transparencia y evitar abusos.
Derechos de Autor (Copyright)
El gran debate legal actual. ¿Es lícito que una IA se entrene leyendo todos los libros o viendo todas las imágenes de internet sin pagar regalías? De la resolución de este conflicto dependerá el futuro de la industria creativa y del desarrollo de nuevos modelos.
Ética y Privacidad
La ética es la brújula moral (¿debemos hacer esto?). La privacidad es el candado técnico: asegurar que tus datos personales o los secretos comerciales de tu empresa no terminen siendo utilizados para entrenar modelos públicos que usará tu competencia.
