diciembre 27, 2024

Telecentro di Bologna e dell'Emilia-Romagna

Manténgase al tanto de las últimas novedades de España sobre el terreno

Meta ha lanzado el modelo de IA de código abierto Llama 3.1 para contrarrestar OpenAI

En abril, Meta anunció que estaba trabajando en un proyecto de IA pionero en la industria: un modelo de código abierto con un rendimiento a la par de los mejores modelos propietarios de empresas como OpenAI.

Hoy ha llegado este modelo. Meta ha lanzado Llama 3.1, el modelo de IA de código abierto más grande jamás creado, que según la compañía supera a GPT-4o y Claude 3.5 Sonnet de Anthropic en varios puntos de referencia. También hará que Meta, el asistente de inteligencia artificial basado en Llama, esté disponible en más países e idiomas, al tiempo que agrega una función que puede crear imágenes basadas en el parecido de una persona específica. CEO Mark Zuckerberg Él predice ahora Se espera que Meta AI se convierta en el asistente más utilizado a finales de este año, superando a ChatGPT.

El Llama 3.1 es significativamente más complejo que los modelos Llama 3 más pequeños lanzados hace unos meses. La versión más grande tiene 405 mil millones de parámetros y fue entrenada utilizando más de 16.000 costosas GPU H100 de Nvidia. Meta no reveló cuánto costó desarrollar Llama 3.1, pero basándose únicamente en el costo de los chips Nvidia, es seguro adivinar que fueron cientos de millones de dólares.

Entonces, dado el costo, ¿por qué Meta continúa ofreciendo Llama gratis con una licencia que solo requiere la aprobación de empresas con cientos de millones de usuarios? Un mensaje publicado en el blog de Meta Company.Zuckerberg afirma que los modelos de IA de código abierto superarán a los modelos propietarios (y ya están mejorando más rápidamente), de forma similar a cómo Linux se convirtió en el sistema operativo de código abierto que alimenta la mayoría de los teléfonos, servidores y dispositivos actuales.

«Un punto de inflexión en la industria donde la mayoría de los desarrolladores comenzaron a utilizar principalmente código abierto».

Compara la inversión de Meta en IA de código abierto con el anterior Open Computing Project, que, según él, le ahorró a la empresa «miles de millones de dólares» al incorporar empresas externas como HP para ayudar a mejorar y estandarizar los diseños de los centros de datos de Meta mientras desarrollaba su propia capacidad. De cara al futuro, espera que se produzca la misma dinámica con la IA y escribe: «Creo que el lanzamiento de Llama 3.1 será un punto de inflexión en la industria a medida que la mayoría de los desarrolladores comiencen a utilizar principalmente código abierto».

Para ayudar a difundir Llama 3.1 en el mundo, Meta está trabajando con más de dos docenas de empresas, incluidas Microsoft, Amazon, Google, Nvidia y Databricks, para ayudar a los desarrolladores a implementar sus propias versiones. Meta afirma que Llama 3.1 cuesta aproximadamente la mitad del coste de producción del GPT-4o de OpenAI. Publica los pesos del modelo para que las empresas puedan entrenarlo con datos personalizados y ajustarlo a su gusto.

Gemini no fue incluido en estas comparaciones de referencia porque Meta tuvo dificultades para usar las API de Google para replicar los resultados reportados anteriormente, según el portavoz de Meta, Jon Carvill.
Gráfico: Meta

Lista de socios Meta clave y las capacidades que ofrecen para la implementación de Llama 3.1.
Gráfico: Meta

Como era de esperar, Meta no habla mucho sobre los datos que utilizó para entrenar a Llama 3.1. Las personas que trabajan en empresas de inteligencia artificial dicen que no divulgan esta información porque es un secreto comercial, mientras que los críticos dicen que es una táctica para retrasar la inevitable avalancha de demandas por derechos de autor que se avecinan.

Lo que Meta dirá es que utilizó datos sintéticos, o datos generados por un modelo en lugar de humanos, para mejorar la versión Llama 3.1 que tiene 405 mil millones de parámetros y las versiones más pequeñas que tienen 70 mil millones y 8 mil millones. Ahmed Al-Dahl, vicepresidente de IA generativa de Meta, espera que Llama 3.1 sea popular entre los desarrolladores como «un hito para modelos más pequeños que luego se implementan» de una «forma más rentable».

Cuando le pregunto si está muerto, acepta. Consenso creciente La industria se está quedando sin datos de entrenamiento de alta calidad para modelos, y Al-Dahli sugiere que se acerca un límite, aunque puede estar más lejos de lo que algunos piensan. “Definitivamente creemos que tenemos algunos [training] “Ser”, dice. «Pero es difícil decirlo».

Por primera vez, el agresivo proceso de prueba de Meta para Llama 3.1 incluyó la búsqueda de posibles casos de uso en ciberseguridad y bioquímica. Otra razón para probar el modelo con mayor rigor es lo que Meta describe como comportamientos emergentes «proxy».

Por ejemplo, me dice Al-Dahli, Llama 3.1 puede integrarse con la API del motor de búsqueda para «recuperar información de Internet basada en una consulta compleja y llamar a múltiples herramientas en sucesión para completar sus tareas». Otro ejemplo que da es pedirle al modelo que represente el número de viviendas vendidas en Estados Unidos durante los últimos cinco años. “Él puede recuperarse [web] Busque y cree código Python y ejecútelo.

La aplicación Meta de Llama es su propio asistente de inteligencia artificial, que se posiciona como un chatbot genérico como ChatGPT y se puede encontrar en casi todas las partes de Instagram, Facebook y WhatsApp. A partir de esta semana, Llama 3.1 estará disponible primero a través de WhatsApp y el sitio web Meta AI en los EE. UU., seguido de Instagram y Facebook en las próximas semanas. Se está actualizando para admitir también nuevos idiomas, incluidos francés, alemán, hindi, italiano y español.

Si bien el modelo Llama 3.1 más avanzado con 405 mil millones de parámetros se puede usar de forma gratuita en Meta AI, el Asistente lo cambiará a un modelo más sencillo con 70 mil millones de parámetros después de pasar por una cantidad no especificada de indicaciones en una semana determinada. Esto indica que el modelo de 405 mil millones es demasiado caro para que Meta lo ejecute a gran escala. El portavoz de la empresa, John Carville, me dijo que la empresa proporcionará más información sobre el umbral de reclamaciones después de una evaluación de uso temprana.

La nueva función «Imagine Me» de Meta AI permite escanear su rostro a través de la cámara de su teléfono para luego permitirle insertar su imagen en las fotos que genera. Al tomarte una foto de esta manera y no a través de las fotos de tu perfil, es de esperar que Meta evite la creación de una máquina de deepfake. La compañía está viendo la demanda de personas que quieren crear más tipos de medios impulsados ​​por IA y compartirlos en sus feeds, incluso si eso significa desdibujar la línea entre lo que es obviamente real y lo que no lo es.

Meta AI también llegará a los auriculares Quest en las próximas semanas, reemplazando la interfaz de comando de voz. Al igual que su implementación en las gafas Meta de Ray-Ban, podrás usar Meta AI en Quest para identificar y reconocer lo que estás mirando durante el modo de paso de los auriculares, que proyecta el mundo real a través de la pantalla.

«Creo que toda la industria se encuentra todavía en una etapa temprana de adecuación del producto al mercado».

Aparte de la predicción de Zuckerberg de que Meta AI será el chatbot más utilizado para finales de este año (ChatGPT tiene más de 100 millones de usuarios), Meta aún no ha compartido ninguna cifra de uso de su asistente. «Creo que toda la industria aún se encuentra en las primeras etapas de su camino hacia la adecuación del producto al mercado», dice Al-Dahli. Incluso con lo sobrevalorada que está la IA, está claro que Meta y otros jugadores creen que la carrera apenas comienza.