En esta oportunidad, les traigo un genial Glosario de Inteligencia Artificial, debido a que como es lógico y razonable, para dominar un tema cualquiera, y más uno tan moderno, complejo y en pleno crecimiento y evolución como este, nada mejor que tratar de conocer, entender y dominar la jerga (términos y conceptos) relacionados con el mismo.

Y si de entrada eres de los que aún no tiene en claro que es la Inteligencia Artificial (IA), de inmediato es importante que sepas que Ciencia y Tecnología se define de forma breve y sencilla como «el campo de la informática dedicado a crear sistemas o máquinas capaces de realizar tareas que requieren inteligencia humana». Por ende, su objetivo fundamental es simular procesos de la inteligencia humana, como el aprendizaje, el razonamiento y la adaptación, a través de programas de cómputo inteligentes.

Además, como dato curioso, es importante conocer que, el término «Inteligencia Artificial» fue acuñado oficialmente en 1956 por John McCarthy. Mientras que, hoy en día, la relevancia de la IA es innegable en muchas de las esferas del hacer humano. Ya que, la misma ha impulsado avances revolucionarios en campos como la medicina, las finanzas, el entretenimiento, el transporte y la educación, transformando radicalmente la forma en que interactuamos con la tecnología y tomamos decisiones o aprendemos y enseñamos conocimientos y nuestra cultura. Y todo esto, gracias a que la IA opera poniendo una vasta colección de datos a través de algoritmos (conjuntos de instrucciones) para crear modelos que automatizan tareas que típicamente requerirían tiempo e inteligencia humana.

Siendo un buen ejemplo dentro del ámbito laboral y profesional, más específicamente en la Educación, comprender la IA es crucial. Ya que, el uso de la IA en la educación juega roles fundamentales, como el de Tutor inteligente, Herramienta de aprendizaje y enseñanza o Asesor en la formulación de políticas educativas. Por ende, este conocimiento es vital para fomentar la alfabetización en IA (la capacidad de usar esta tecnología de manera efectiva y ética), lo cual es necesario para que los Docentes y Estudiantes se desarrollen plenamente en el mundo actual y aumenten sus habilidades de pensamiento crítico. Por lo que aprender a desarrollar Prompts, en general, y sobre todo, con un enfoque educativo es algo esencial, a la hora de aprender y enseñar, o crear contenido pedagogico y educativo.

Así que, sin más que agregar, y teniendo en cuenta que, a medida que el «Léxico de la IA evoluciona y crece», te presentamos los términos y conceptos fundamentales para dominar este campo dinámico y en constante cambio.

 

Glosario de Inteligencia Artificial:

Ajuste de instrucciones 

El ajuste de instrucciones es un enfoque donde un modelo pre-entrenado se adapta para realizar tareas específicas proporcionando un conjunto de pautas o directivas que describen la operación deseada.

Ajuste de modelos

El ajuste del modelo consiste en ajustar los hiperparámetros de un modelo de inteligencia artificial para optimizar su rendimiento. Este proceso implica probar diferentes combinaciones de hiperparámetros (como la velocidad de aprendizaje o la profundidad de capa) para encontrar las que ofrecen los mejores resultados en un conjunto de datos determinado.

Ajuste fino

El proceso de adaptar un modelo pre-entrenado a una tarea específica entrenándolo en un conjunto de datos más pequeño. Por ejemplo, un modelo de clasificación de imágenes entrenado en todas las fotos de intersecciones puede ser perfeccionado para detectar cuando un coche se pasa un semáforo en rojo.

Alfabetización en IA

Es la capacidad de comprender, interactuar y utilizar IA de manera efectiva y ética dentro de una amplia gama de contextos socioculturales. Esto implica tener un conocimiento sobre su funcionamiento y principios. Se podría decir que es el conjunto de competencias que permiten evaluar, comunicar y colaborar de forma efectiva y crítica con esta tecnología.

1. Algoritmo

Una serie de pasos repetibles para llevar a cabo cierto tipo de tarea con datos. Al estudiar Ciencia de Datos debemos conocer los diferentes algoritmos y sus respectivas ventajas y desventajas. El término proviene del nombre del matemático persa Muhammad ibn Musa al-Khwarizmi (alrededor del año 820), a quien debemos la introducción de la numeración decimal en Occidente. En la actualidad, designa una serie de instrucciones que deben ser ejecutadas en forma automática por un ordenador. Los algoritmos se aplican en todos los ámbitos, desde las consultas a través de dispositivos de búsqueda y la selección de información sugerida a los internautas, hasta los mercados financieros.

2. Alucinación 

La alucinación se refiere a una situación en la que un sistema de IA, especialmente en aquellos casos en los que se encarga del procesamiento del lenguaje natural, comienza a generar resultados que pueden ser irrelevantes, sin sentido o incorrectos basados en la entrada proporcionada. Frecuentemente, esto ocurre cuando el sistema de IA no está seguro del contexto, depende demasiado de sus datos de entrenamiento o carece de una comprensión adecuada del tema que se le presenta.

3. Agrupación

La agrupación en clústeres es un método de aprendizaje no supervisado que consiste en agrupar datos similares en conjuntos denominados «clústeres». A diferencia de la clasificación, no hay etiquetas predefinidas. El modelo descubre similitudes en los datos para crear estos grupos, que se utilizan para el análisis del mercado o la segmentación de clientes, por ejemplo.

4. Amplificación de la inteligencia

La amplificación de la inteligencia (Intelligence Augmentation en inglés) o IA aumentada se centra en el desarrollo de tecnología para mejorar las capacidades cognitivas de los seres humanos, sin buscar su reemplazo.

5. Analíticas de aprendizaje

En educación, las analíticas de aprendizaje (learning analytics en inglés) es un campo emergente en la educación de carácter multidisciplinario, ya que integra informática, ciencias de la educación, estadística, minería de datos, pedagogía y ciencias de la conducta. En otras palabras, es el empleo de los datos para comprender y mejorar los procesos de enseñanza-aprendizaje. Entre sus objetivos se encuentran los siguientes: apoyar las estrategias de instrucción, identificar estudiantes de riesgo para brindar intervenciones efectivas, mejorar las experiencias de aprendizaje mediante el seguimiento de actividades y de retroalimentación, etcétera. Se utiliza en la realidad virtual (RV) y la realidad aumentada (RA), en asistentes inteligentes, entre otros.

6. Anclaje 

El anclaje es el proceso de fijar sistemas de IA en experiencias, conocimientos o datos del mundo real. El objetivo es mejorar la comprensión del mundo por parte de la IA, para que pueda interpretar y responder efectivamente a las entradas, consultas y tareas de los usuarios. El anclaje ayuda a que los sistemas de IA sean más conscientes del contexto, permitiéndoles proporcionar respuestas o acciones más adecuadas, relacionables y relevantes.

7. Anotación de datos

La anotación de datos consiste en agregar etiquetas o descripciones específicas a los datos sin procesar (imágenes, texto, vídeos, etc.) para que los algoritmos de IA los entiendan. Esto permite entrenar los modelos de aprendizaje automático para reconocer objetos, acciones o conceptos en estos datos.‍

8. Apilamiento 

El apilamiento es una técnica en IA que combina múltiples algoritmos para mejorar el rendimiento general. Al combinar las fortalezas de varios modelos de IA, el apilamiento compensa las debilidades de cada modelo y logra una salida más precisa y robusta en diversas aplicaciones, como el reconocimiento de imágenes y el procesamiento del lenguaje natural.

9. Aprendizaje adaptativo

El aprendizaje adaptativo (adaptive learning) emplea la instrucción basada en datos para ajustar las experiencias de aprendizaje de cada estudiante (ya sea en términos de dificultad, ritmo, etc.). Este tipo de aprendizaje rastrea datos diversos, tales como el progreso, la participación y el desempeño. Con esta información se pueden diseñar e implementar experiencias de aprendizaje personalizadas.

10. Aprendizaje Automático (Machine Learning) 

Un subcampo de la IA que abarca el desarrollo de algoritmos y modelos estadísticos que permiten a las máquinas mejorar su rendimiento con la experiencia. Un ejemplo sería un algoritmo de aprendizaje automático que pudiera predecir la probabilidad de pérdida de los clientes basándose en su comportamiento pasado. Gracias a un programa de aprendizaje automático, la máquina aprende a resolver problemas a partir de ejemplos: puede así comparar y clasificar datos e incluso reconocer formas complejas. Antes de la llegada en 2010 del aprendizaje profundo, este tipo de programa era supervisado por seres humanos, ya que debía señalarse explícitamente cada imagen que contuviera un rostro humano, una cabeza de gato, etc. para que la máquina pudiera realizar la operación de reconocimiento solicitada.

11. Aprendizaje colectivo

El aprendizaje colectivo es un enfoque de entrenamiento de IA que aprovecha habilidades y conocimientos diversos a través de múltiples modelos para lograr una inteligencia más poderosa y robusta.

12. Aprendizaje de disparo cero o entrenamiento cero 

El aprendizaje de entrenamiento cero es una técnica en la que un modelo de aprendizaje automático puede reconocer y clasificar nuevos conceptos sin ningún ejemplo etiquetado.

13. Aprendizaje multitarea

El aprendizaje multitarea es un método en el que un modelo de inteligencia artificial se entrena simultáneamente en varias tareas relacionadas. Esto permite que el modelo aprenda de manera más eficaz al compartir conocimientos entre las tareas, lo que mejora su rendimiento general en toda la gama de problemas a resolver.

14. Aprendizaje profundo (Deep Learning)

Un subcampo del aprendizaje automático (machine learning) que utiliza redes neuronales con múltiples capas para aprender de los datos, es decir, que utiliza distintas estructuras de redes neuronales para lograr el aprendizaje de sucesivas capas de representaciones cada vez más significativas de los datos. Un ejemplo sería, en este caso, un modelo de aprendizaje profundo que pudiera reconocer objetos en una imagen, procesándola a través de múltiples capas de redes neuronales. Y esto lo hace, actualmente el campo con más popularidad dentro de la Inteligencia Artificial. Nacido de la combinación de los algoritmos de aprendizaje automático con las redes neuronales formales y con el uso de los macrodatos, el deep learning revolucionó la inteligencia artificial. Tiene innumerables aplicaciones: motores de búsqueda, diagnóstico médico, vehículos autónomos, etc. Por ejemplo: En 2015, el ordenador AlphaGo aprendió a ganarle a los humanos en el juego del GO gracias al deep learning.

 

15. Aprendizaje supervisado

En Machine Learning el aprendizaje supervisado es una técnica para deducir una función a partir de datos de entrenamiento. Los datos de entrenamiento consisten de pares de objetos (normalmente vectores): un componente del par son los datos de entrada y el otro, los resultados deseados, es decir, los resultados a los que debe arribar el modelo.

16. Aprendizaje no supervisado

El aprendizaje no supervisado es un método de Machine Learning en donde el modelo es ajustado a las observaciones. En este caso el algoritmo es entrenado usando un conjuntos de datos que no tiene ninguna etiqueta; nunca se le dice lo que representan los datos. La idea es que el algoritmo pueda encontrar por si solo patrones que ayuden a entender los datos.

17. Aprendizaje por refuerzo

En los problemas de aprendizaje por refuerzo, el algoritmo aprende observando el mundo que le rodea. Su información de entrada es el feedback o retroalimentación que obtiene del mundo exterior como respuesta a sus acciones. Por lo tanto, el sistema aprende en base a prueba-error.

18. Aprendizaje potenciado 

Un tipo de aprendizaje automático en el que un modelo aprende a tomar decisiones interactuando con su entorno y recibiendo retroalimentación a través de recompensas o penalizaciones. GPT utiliza aprendizaje potenciado a partir de la retroalimentación humana. Al ajustar GPT-3, los anotadores humanos proporcionaron ejemplos del comportamiento deseado del modelo y clasificaron las salidas del modelo.

19. Automatización

La automatización se refiere al uso de tecnología para realizar distintas tareas con mínima intervención humana.

20. Arboles de Decisión

Los Arboles de Decision son un algoritmo de Machine Learning que consisten en diagramas con construcciones lógicas, muy similares a los sistemas de predicción basados en reglas, que sirven para representar y categorizar una serie de condiciones que ocurren de forma sucesiva, para la resolución de un problema.

21. Atributos

Los Atributos son las propiedades individuales que se pueden medir de un fenómeno que se observa. La elección de atributos informativos, discriminatorios e independientes es un paso crucial para la eficacia de los algoritmos de Machine Learning.

22. Backpropagation

La propagación hacia atrás o backpropagation es un algoritmo para el ajuste iterativo de los pesos utilizados por las redes neuronales.

23. BCI

BCI (Brain Computer interfaces en inglés y Interfaces cerebro Computador en español) constituyen una tecnología que se basa en la adquisición de ondas cerebrales para luego ser procesadas e interpretadas por una máquina u ordenador. Establecen el camino para interactuar con el exterior mediante nuestro pensamiento. Además, este campo multidisciplinario de la ciencia y tecnología utiliza los nuevos avances en neurociencia, procesamiento de señales, machine learning y las tecnologías de la información para explorar la forma de comunicar nuestro cerebro en forma directa con las máquinas, de la misma forma en que lo hacemos con nuestro cuerpo.

24. Big Data

La Big Data es la rama de las Tecnologías de la información que estudia las dificultades inherentes a la manipulación de grandes conjuntos de datos. Tambien llamados Macrodatos, estos se refieren a un conjuntos de datos grandes y complejos que, a menudo, son demasiado grandes o variados para procesarse con métodos tradicionales. Y además, provienen de una variedad de fuentes (redes sociales, sensores, etc.) y requieren técnicas avanzadas, como la inteligencia artificial y el aprendizaje automático, para analizarlos y extraer información útil.‍

25. Capacidad de control

La capacidad de control se refiere a entender, regular y gestionar el proceso de toma de decisiones de un sistema de IA, asegurando su precisión, seguridad y comportamiento ético, y minimizando el potencial de consecuencias no deseadas.

26. Chatbot (Agentes conversacionales)

Una interfaz fácil de usar que permite al usuario hacer preguntas y recibir respuestas. Dependiendo del sistema de back-end que alimente al chatbot, puede ser tan básico como respuestas prescritas hasta una IA completamente conversacional que automatiza la resolución de problemas.

27. ChatGPT

Una interfaz de chat construida sobre GPT-3.5. GPT-3.5 es un modelo de lenguaje grande desarrollado por OpenAI que está entrenado en una cantidad masiva de datos de texto de internet y optimizado para realizar una amplia gama de tareas de lenguaje natural. Ejemplo: GPT-3.5 ha sido perfeccionado para tareas como la traducción de idiomas, la síntesis de texto y la respuesta a preguntas.

28. Ciencia de datos

La Ciencia de Datos es un campo interdisciplinario que involucra métodos científicos, procesos y sistemas para extraer conocimiento o un mejor entendimiento de datos en sus diferentes formas, ya sea estructurados o no estructurados.

29. Clasificación

En Machine Learning los problemas de Clasificación son aquellos en dónde el algoritmo de aprendizaje debe clasificar una serie de vectores en base a información de ejemplos previamente etiquetados. Dicho en otras palabras, es una técnica de aprendizaje automático en la que se entrena a un modelo para asignar categorías o etiquetas predefinidas a datos nuevos. Por ejemplo, categorizar los correos electrónicos como «spam» o «no spam» o reconocer objetos en imágenes, como gatos o perros. Esto lo convierte en un caso típico del Aprendizaje supervisado.

30. Clustering

El Clustering o agrupamiento consiste en agrupar un un conjunto de objetos de tal manera que los miembros del mismo grupo (llamado clúster) sean más similares, en algún sentido u otro. Es el caso típico del Aprendizaje no supervisado.

31. Computación en la nube

La computación en la nube es un paradigma que permite ofrecer servicios de computación a través de una red, que usualmente es la internet. Los servicios que generalmente se ofrecen, se dividen en tres grandes categorías: Infraestructura como servicio (IaaS), plataforma como servicio (PaaS) y software como servicio (SaaS).

32. Conexión a tierra

Los sistemas de IA generativa pueden componer historias, poemas y chistes, así como responder preguntas de investigación. Pero a veces se enfrentan a desafíos para separar la realidad de la ficción, o sus datos de entrenamiento están desactualizados, y entonces pueden dar respuestas inexactas denominadas alucinaciones. Los desarrolladores trabajan para ayudar a la IA a interactuar con el mundo real con precisión a través del proceso de conexión a tierra (Grounding), que es cuando conectan y anclan su modelo con datos y ejemplos tangibles para mejorar la precisión y producir resultados relevantes y personalizados de manera más contextual.

33. Conjunto de datos

Un Conjunto de datos o Dataset es una colección de Datos que habitualmente están estructurados en forma tabular. Por ende, es una recopilación de datos organizada que se utiliza para entrenar, probar o validar modelos de inteligencia artificial. Y puede contener texto, imágenes, vídeos u otro tipo de información, normalmente etiquetada, para permitir que los algoritmos aprendizaje automático para reconocer patrones y hacer predicciones.

34. Curva ROC y AUC

La curva ROC (característica operativa del receptor) evalúa el rendimiento de un modelo de clasificación trazando la tasa de verdaderos positivos frente a la tasa de falsos positivos. El AUC (área bajo la curva) mide el área bajo esta curva. Cuanto más cerca esté el AUC de 1, mejor será la capacidad del modelo para distinguir entre clases.

35. Datos

Un dato es una representación simbólica (numérica, alfabética, algorítmica, espacial, etc.) de un atributo o variable cuantitativa o cualitativa. Los datos describen hechos empíricos, sucesos y entidades. Es el elemento fundamental con el que trabaja la Ciencia de Datos.

36. Datos de validación 

Un subconjunto del conjunto de datos utilizado en el aprendizaje automático que es separado de los conjuntos de datos de entrenamiento y prueba. Se utiliza para ajustar los hiperparámetros (es decir, la arquitectura, no los pesos) de un modelo.

37. Datos no estructurados 

Los datos no estructurados son cualquier información que no está organizada en un modelo o estructura predefinidos, lo que hace difícil recopilar, procesar y analizar.

38. Encadenamiento de modelos 

El encadenamiento de modelos es una técnica en ciencia de datos donde varios modelos de aprendizaje automático están vinculados en secuencia para hacer predicciones o análisis.

39. Enriquecimiento de datos

El enriquecimiento de los datos es una técnica utilizada para aumentar artificialmente el tamaño y la diversidad de un conjunto de entrenamiento creando copias modificadas de los datos existentes. Involucra hacer cambios menores como voltear, redimensionar o ajustar el brillo de las imágenes, para mejorar el conjunto de datos y prevenir el sobreajuste de los modelos.

40. Enseñanza para la IA

Se refiere al desarrollo de conocimientos, habilidades y competencias para utilizar la IA de forma responsable y eficiente (relacionado con la alfabetización en IA). Puede ser implementado en cualquier nivel educativo y es necesario para que los estudiantes se puedan desarrollar plenamente en el mundo actual. Conlleva el aumento de habilidades de pensamiento crítico, resolución de problemas, comprensión ética de la IA, conceptos básicos de la tecnología, entre otros.

41. Enseñar con IA

Implica la integración de la IA en la educación para impulsar los procesos de enseñanza-aprendizaje.

42. Enseñar sobre la IA

Se relaciona con el uso y aplicación de los conocimientos sobre IA para desarrollar herramientas, programas, entre otros. Por ejemplo, los planes de estudio que integran programación, robótica, etc., en las aulas.

43. Entrenamiento de modelos

El entrenamiento de modelos es el proceso de usar un conjunto de datos para enseñar a un modelo de inteligencia artificial o aprendizaje automático a realizar una tarea específica, como la clasificación o la predicción. El modelo ajusta sus parámetros en función de los ejemplos proporcionados, a fin de mejorar su precisión en los nuevos datos.

44. Espacio latente 

En el aprendizaje automático, este término se refiere a la representación comprimida de datos que un modelo (como una red neuronal) crea. Los puntos de datos similares están más cerca en el espacio latente.

41. Enseñar con IA

Implica la integración de la IA en la educación para impulsar los procesos de enseñanza-aprendizaje.

42. Enseñar sobre la IA

Se relaciona con el uso y aplicación de los conocimientos sobre IA para desarrollar herramientas, programas, entre otros. Por ejemplo, los planes de estudio que integran programación, robótica, etc., en las aulas.

43. Entrenamiento de modelos

El entrenamiento de modelos es el proceso de usar un conjunto de datos para enseñar a un modelo de inteligencia artificial o aprendizaje automático a realizar una tarea específica, como la clasificación o la predicción. El modelo ajusta sus parámetros en función de los ejemplos proporcionados, a fin de mejorar su precisión en los nuevos datos.

44. Espacio latente 

En el aprendizaje automático, este término se refiere a la representación comprimida de datos que un modelo (como una red neuronal) crea. Los puntos de datos similares están más cerca en el espacio latente.

49. Extracción

La extracción es la habilidad de los modelos generativos para analizar grandes conjuntos de datos y extraer patrones, tendencias y piezas específicas de información relevantes.

50. Falsa alarma (Falso positivo)

Se produce una falsa alarma (o falso positivo) cuando un modelo predice incorrectamente la presencia de una condición o clase cuando está ausente. Por ejemplo, un sistema de detección de spam clasificaría el correo electrónico legítimo como spam. Este es un error común en los modelos de clasificación.

51. Función de activación

En redes neuronales la Función de activación es la que define la forma en que una neurona se activa de acuerdo a una entrada o conjunto de entradas.

52. Función de pérdida

En Machine Learning y Optimización, la Función de pérdida es aquella que representa la pérdida de información o el precio pagado por la inexactitud en las predicciones. Además, es una herramienta que se utiliza para medir la diferencia entre las predicciones del modelo y los valores reales. Es decir, que evalúa la precisión del modelo. Cuanto menor sea la pérdida, más cerca estarán las predicciones del modelo de los resultados esperados. El modelo aprende minimizando esta pérdida.

53. Generalización de débil a fuerte 

La generalización de débil a fuerte es un enfoque de entrenamiento de IA que utiliza modelos menos capaces para guiar y restringir a los más poderosos hacia una mejor generalización más allá de sus estrechos datos de entrenamiento.

54. Generación aumentada por recuperación (RAG)

Cuando los desarrolladores dan acceso a un sistema de IA a una fuente de conexión a tierra para ayudar a que sea más preciso y actual, utilizan un método llamado Generación Aumentada de Recuperación, o RAG (Retrieval Augmented Generation). El patrón RAG ahorra tiempo y recursos al agregar conocimientos adicionales sin tener que volver a entrenar el programa de IA. Es como si fueran Sherlock Holmes y hubieran leído todos los libros de la biblioteca pero aún no hubieran resuelto el caso, así que suben al ático, desenrollan algunos pergaminos antiguos y, voilà, encuentran la pieza que falta en el rompecabezas. Del mismo modo, si tienen una empresa de ropa y quieren crear un chatbot que pueda responder a preguntas específicas de su mercancía, pueden utilizar el patrón RAG en su catálogo de productos para ayudar a los clientes a encontrar el jersey verde perfecto en su tienda.

55. Generación de lenguaje natural (NLG)

La generación de lenguaje natural (NLG) es un subcampo de la inteligencia artificial que consiste en producir automáticamente textos o discursos comprensibles en lenguaje humano. Permite que una máquina transforme datos sin procesar en oraciones o párrafos naturales, como en resúmenes automatizados o asistentes virtuales.

56. GPT-3 

GPT-3 es la tercera versión de la serie de modelos GPT-n. Tiene 175 mil millones de parámetros (mandos ajustables) que se pueden ponderar para hacer predicciones. Chat-GPT utiliza GPT-3.5, que es otra iteración de este modelo.

57. GPT-4 

GPT-4 es la cuarta adición de modelos a los esfuerzos de aprendizaje profundo de OpenAI y es un hito significativo en la escalabilidad del aprendizaje profundo. GPT-4 también es el primer modelo GPT que es un modelo multimodal grande, lo que significa que acepta entradas de imagen y texto y emite salidas de texto.

58. GPT-5

GPT‑5 es un sistema unificado con un modelo inteligente y eficiente que responde a la mayoría de las preguntas, un modelo razonador más avanzado (razonamiento GPT‑5) para los problemas más complejos y un rúter en tiempo real que decide rápidamente qué modelo usar en función del tipo de conversación, la complejidad, las herramientas necesarias y la intención explícita del usuario (si en la indicación dices «reflexiona bien sobre esto», por ejemplo). El rúter se entrena de forma continua con señales reales, como los cambios de modelo que realizan los usuarios, las valoraciones de sus preferencias sobre las respuestas y las mediciones de precisión, lo que le permite mejorar con el tiempo. Cuando se alcanzan los límites de uso, se hace uso de una versión más ligera de cada modelo para gestionar las consultas restantes.

59. GPU

Una GPU, que significa Unidad de Procesamiento de Gráficos, es una calculadora turboalimentada. Las GPU se diseñaron en un inicio para suavizar los gráficos sofisticados en los videojuegos, y ahora son los autos con potencia de la informática. Los chips tienen muchos núcleos diminutos, o redes de circuitos y transistores, que abordan problemas matemáticos juntos, lo que se conoce como procesamiento paralelo. Dado que eso es, de manera básica, lo que es la IA (resolver toneladas de cálculos a gran escala para poder comunicarse en lenguaje humano y reconocer imágenes o sonidos), las GPU son indispensables para las herramientas de IA tanto para el entrenamiento como para la inferencia. De hecho, los modelos más avanzados de hoy en día se entrenan a través de la utilización de enormes clústeres de GPU interconectadas, que a veces suman decenas de miles repartidas en centros de datos gigantes, como los que Microsoft tiene en Azure, que se encuentran entre las computadoras más poderosas jamás construidas.

60. Gradiente

El concepto de Gradiente es la generalización de derivada a funciones de más de una variable o vectores. Un método de Optimización muy utilizado en Deep Learning es el de gradientes descendientes.

61. Hadoop

Hadoop es un framework de software, desarrollado en el lenguaje de programación Java, que permite el procesamiento distribuido de grandes conjuntos de datos a través de clusters de computadoras utilizando simples modelos de programación.

62. Hiperparámetros

Los hiperparámetros son parámetros que se definen antes de entrenar un modelo de inteligencia artificial y que influyen en su aprendizaje. A diferencia de los parámetros aprendidos por el modelo, los hiperparámetros, como la tasa de aprendizaje o el tamaño de las capas neuronales, se fijan manualmente y se ajustan para optimizar el rendimiento del modelo.

63. Hipótesis

En Estadística, una Hipótesis es una suposición de algo posible o imposible para sacar de ello una o más conclusiones. Su valor reside en la capacidad para establecer más relaciones entre los hechos y explicar por qué se producen. La misma debe ser contrastada contra los datos que la soporten.

64. Inferencia 

El proceso de hacer predicciones con un modelo entrenado de aprendizaje automático, es decir, poner en práctica lo que la IA ha aprendido durante su entrenamiento. Vale añadir que, para crear y utilizar un sistema de IA, hay dos pasos: entrenamiento e inferencia. El entrenamiento es algo así como la educación de un sistema de IA, cuando se alimenta de un conjunto de datos y aprende a realizar tareas o hacer predicciones basadas en esos datos. Por ejemplo, se le puede dar una lista de precios de casas vendidas de manera reciente en un vecindario, junto con el número de dormitorios y baños en cada uno y una multitud de otras variables. Durante el entrenamiento, el sistema ajusta sus parámetros internos, que son valores que determinan cuánto peso dar a cada uno de esos factores para influir en los precios. La inferencia es cuando utilizan esos patrones y parámetros aprendidos para llegar a una predicción de precios para una nueva casa que está a punto de salir al mercado.

65. Ingeniería de funciones

La ingeniería de funciones o características es el proceso de seleccionar, transformar o crear nuevas características (o «características») a partir de datos sin procesar, con el fin de mejorar el rendimiento de un modelo de aprendizaje automático. Estas características permiten representar mejor los datos y facilitan que el modelo identifique patrones o haga predicciones.

66. Ingeniería de Prompts 

Identificación de entradas (prompts) que resultan en salidas significativas. Hasta ahora, la ingeniería de prompts es esencial para los LLM. Los LLM son una fusión de capas de algoritmos que, en consecuencia, tienen una controlabilidad limitada con pocas oportunidades para intervenir y anular el comportamiento. Un caso de uso de ingeniería de prompts sería crear una colección de plantillas y asistentes para controlar una aplicación de redacción de textos comerciales.

67. Integración con IA

Se dice que hay una integración cuando un programa/producto armoniza con las capacidades y beneficios de la IA para mejorar aspectos diversos (funcionalidad, rendimiento, personalización, seguridad, etc.). Por lo tanto, no debe verse como dos herramientas por separado, sino como una incorporación de ambos.

68. Inteligencia Artificial (IA)

La simulación de la inteligencia humana en máquinas que están programadas para pensar y aprender como los humanos, es decir, máquinas que exhiben una inteligencia humana. Ejemplo: Un coche autónomo que puede navegar y tomar decisiones por sí mismo utilizando la tecnología de IA.

69. Inteligencia Artificial General (IAG)

La Inteligencia Artificial General (IAG) se refiere a un sistema de IA que posee una amplia gama de habilidades cognitivas, muy parecidas a las humanas, lo que le permite aprender, razonar, adaptarse a nuevas situaciones y desarrollar soluciones creativas en diversas tareas y dominios, en lugar de estar limitado a tareas específicas como lo están los sistemas de IA estrecha.

70. Inteligencia Artificial en la Educación (AIED)

El uso de la inteligencia artificial en la educación (AIED por sus siglas en inglés) se refiere al empleo de la IA dentro del campo educativo. Es necesario destacar que su uso ha tomado cuatro roles: tutor inteligente, tutelado, herramienta de aprendizaje/compañero y asesor en la formulación de políticas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *