Home Tecnología El Glosario TechCrunch AI | TechCrunch

El Glosario TechCrunch AI | TechCrunch

by internauta
0 comment


La inteligencia artificial es un mundo profundo y enrevesado. Los científicos que trabajan en este campo a menudo confían en la jerga y la jerga para explicar en qué están trabajando. Como resultado, con frecuencia tenemos que usar esos términos técnicos en nuestra cobertura de la industria de inteligencia artificial. Es por eso que pensamos que sería útil armar un glosario con definiciones de algunas de las palabras y frases más importantes que usamos en nuestros artículos.

Actualizaremos regularmente este glosario para agregar nuevas entradas a medida que los investigadores descubren continuamente métodos novedosos para impulsar la frontera de la inteligencia artificial al identificar los riesgos de seguridad emergentes.


Un agente de IA se refiere a una herramienta que utiliza tecnologías de IA para realizar una serie de tareas en su nombre, más allá de lo que un chatbot de IA más básico podría hacer, como presentar gastos, reservar boletos o una mesa en un restaurante, o incluso escribir y mantener código. Sin embargo, como hemos explicado antes, hay muchas piezas móviles en este espacio emergente, por lo que diferentes personas pueden significar cosas diferentes cuando se refieren a un agente de IA. La infraestructura también se está construyendo para entregar capacidades previstas. Pero el concepto básico implica un sistema autónomo que puede recurrir a múltiples sistemas de IA para llevar a cabo tareas de varios pasos.

Dada una simple pregunta, un cerebro humano puede responder sin siquiera pensarlo demasiado: cosas como “¿Qué animal es más alto entre una jirafa y un gato?” Pero en muchos casos, a menudo necesita un bolígrafo y un papel para encontrar la respuesta correcta porque hay pasos intermediarios. Por ejemplo, si un agricultor tiene pollos y vacas, y juntos tienen 40 cabezas y 120 patas, es posible que deba escribir una ecuación simple para obtener la respuesta (20 pollos y 20 vacas).

En un contexto de IA, el razonamiento de la cadena de pensamiento para modelos de idiomas grandes significa romper un problema en pasos intermedios más pequeños e intermedios para mejorar la calidad del resultado final. Por lo general, lleva más tiempo obtener una respuesta, pero es más probable que la respuesta sea correcta, especialmente en una lógica o contexto de codificación. Los llamados modelos de razonamiento se desarrollan a partir de modelos tradicionales de idiomas grandes y se optimizan para el pensamiento de la cadena de pensamiento gracias al aprendizaje de refuerzo.

(Ver: modelo de lenguaje grande)

Un subconjunto de aprendizaje automático de administración automática en el que los algoritmos de IA están diseñados con una estructura de red neuronal artificial (ANN) de varias capas. Esto les permite hacer correlaciones más complejas en comparación con sistemas más simples basados ​​en aprendizaje automático, como modelos lineales o árboles de decisión. La estructura de los algoritmos de aprendizaje profundo se inspira en las vías interconectadas de las neuronas en el cerebro humano.

El aprendizaje profundo AIS puede identificar características importantes en los datos mismos, en lugar de exigir a los ingenieros humanos que definan estas características. La estructura también admite algoritmos que pueden aprender de los errores y, a través de un proceso de repetición y ajuste, mejoran sus propios resultados. Sin embargo, los sistemas de aprendizaje profundo requieren muchos puntos de datos para producir buenos resultados (millones o más). Por lo general, también lleva más tiempo entrenar el aprendizaje profundo frente a los algoritmos de aprendizaje automático más simples, por lo que los costos de desarrollo tienden a ser más altos.

(Ver: Red neural)

Esto significa una mayor capacitación de un modelo de IA que tiene la intención de optimizar el rendimiento para una tarea o área más específica que anteriormente un punto focal de su entrenamiento, generalmente alimentándose en datos nuevos y especializados (es decir, orientados a tareas).

Muchas nuevas empresas de IA están tomando modelos de idiomas grandes como punto de partida para construir un producto comercial pero compitiendo para ampliar la utilidad por un sector o tarea objetivo al complementar los ciclos de capacitación anteriores con ajuste fino basado en su propio conocimiento y experiencia específicos de dominio.

(Ver: Modelo de lenguaje grande (LLM))

Los modelos de idiomas grandes, o LLM, son los modelos de IA utilizados por asistentes de IA populares, como ChatGPT, Claude, Google’s Gemini, Meta’s Ai Llama, Microsoft Copilot o Mistral’s LE Chat. Cuando chatea con un asistente de IA, interactúa con un modelo de idioma grande que procesa su solicitud directamente o con la ayuda de diferentes herramientas disponibles, como navegación web o intérpretes de código.

Los asistentes de IA y LLM pueden tener diferentes nombres. Por ejemplo, GPT es el modelo de idioma grande de OpenAI y ChatGPT es el producto de asistente de IA.

Los LLM son redes neuronales profundas hechas de miles de millones de parámetros numéricos (o pesos, ver más abajo) que aprenden las relaciones entre palabras y frases y crean una representación del lenguaje, una especie de mapa multidimensional de palabras.

Esos se crean a partir de la codificación de los patrones que encuentran en miles de millones de libros, artículos y transcripciones. Cuando se aplica un LLM, el modelo genera el patrón más probable que se ajuste a la solicitud. Luego evalúa la siguiente palabra más probable después de la última en función de lo que se dijo antes. Repita, repita y repita.

(Ver: Red neural)

La red neuronal se refiere a la estructura algorítmica de múltiples capas que sustenta el aprendizaje profundo y, en general, todo el auge en las herramientas de IA generativas después de la aparición de modelos de idiomas grandes.

Aunque la idea de inspirarse en las vías densamente interconectadas del cerebro humano como una estructura de diseño para los algoritmos de procesamiento de datos se remonta a la década de 1940, fue el aumento mucho más reciente del hardware de procesamiento gráfico (GPU), a través de la industria de los videojuegos, que realmente desbloqueó el poder de la teoría. Estos chips demostraron ser muy adecuados para los algoritmos de capacitación con muchas más capas de las posibles en épocas anteriores, lo que permite que los sistemas de IA basados ​​en la red neuronal alcancen un rendimiento mucho mejor en muchos dominios, ya sea para el reconocimiento de voz, la navegación autónoma o el descubrimiento de fármacos.

(Ver: Modelo de lenguaje grande (LLM))

Los pesos son centrales para el entrenamiento de IA, ya que determinan cuánta importancia (o peso) se da a diferentes características (o variables de entrada) en los datos utilizados para capacitar al sistema, configurando así la salida del modelo AI.

Dicho de otra manera, los pesos son parámetros numéricos que definen lo que es más destacado en un conjunto de datos para la tarea de entrenamiento dada. Logran su función aplicando la multiplicación a las entradas. El entrenamiento modelo generalmente comienza con pesos que se asignan al azar, pero a medida que se desarrolla el proceso, los pesos se ajustan a medida que el modelo busca llegar a una salida que coincida más estrechamente con el objetivo.

Por ejemplo, un modelo de IA para predecir los precios de la vivienda que está capacitado en datos de bienes raíces históricos para una ubicación objetivo podría incluir pesas para características como la cantidad de habitaciones y baños, ya sea que una propiedad esté separada, semi-determinada, si tiene o no tiene estacionamiento, un garaje, etc.

En última instancia, los pesos que el modelo se adhiere a cada una de estas entradas es un reflejo de cuánto influyen en el valor de una propiedad, en función del conjunto de datos dado.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00