Anuncios
U.S. markets closed
  • S&P 500

    5,303.27
    +6.17 (+0.12%)
     
  • Dow Jones

    40,003.59
    +134.21 (+0.34%)
     
  • Nasdaq

    16,685.97
    -12.35 (-0.07%)
     
  • Russell 2000

    2,095.72
    -0.53 (-0.03%)
     
  • Petróleo

    80.00
    +0.77 (+0.97%)
     
  • Oro

    2,419.80
    +34.30 (+1.44%)
     
  • Plata

    31.77
    +1.90 (+6.36%)
     
  • dólar/euro

    1.0872
    +0.0002 (+0.02%)
     
  • Bono a 10 años

    4.4200
    +0.0430 (+0.98%)
     
  • dólar/libra

    1.2706
    +0.0035 (+0.28%)
     
  • yen/dólar

    155.6190
    +0.3120 (+0.20%)
     
  • Bitcoin USD

    66,934.76
    +781.88 (+1.18%)
     
  • CMC Crypto 200

    1,367.44
    -6.41 (-0.47%)
     
  • FTSE 100

    8,420.26
    -18.39 (-0.22%)
     
  • Nikkei 225

    38,787.38
    -132.88 (-0.34%)
     

Apple y un paso clave en IA: presentó una familia de lenguaje de código abierto orientada a sus notebooks

Actualmente todas las big tech apuestan de lleno por el desarrollo de sus respectivas inteligencias artificiales (IA), y en esta nueva carrera Apple no tiene ninguna intención de quedarse atrás.

En este sentido, la empresa con sede en Cupertino, presentó a su la familia Open-source Efficient Language Models ('Modelos de lenguaje eficientes de código abierto'), diseñada para ofrecer resultados precisos en dispositivos como notebooks, empleando menos tokens de entrenamiento que otros modelos de IA, como OLMo.

¿De qué se trata?

Denominada por Apple como OpenELM, es una herramienta que; "utiliza una estrategia de escalamiento por capas para asignar parámetros de forma eficiente dentro de cada capa del modelo", por lo que pone el foco en tareas concretas y permite a los usuarios obtener resultados bastante más específicos.

PUBLICIDAD

Pero además, esta familia está compuesta por cuatro modelos de lenguaje grande (LLM, por sus siglas en inglés), y que se lanzan al público en diferentes tamaños: 270 millones de parámetros, 450 millones, 1.100 millones y 3.000 millones de parámetros.

Asimismo, cada uno de estos modelos cuenta con dos versiones: preentrenamiento ('pre-trained'), una variante genérica entrenada con conjuntos de datos de la biblioteca CoreNet de GitHub, y optimizada ('instruction tuned'), ajustada e instruida para emplearla con propósitos concretos, como se explica en el documento de la investigación que publicó el sitio de Arxiv.org.

Por otra parte, los especialistas expresaron que estos modelos fueron testeados en los dispositivos como MacBook Pro con SoC M2 Max, 64 GB de RAM y basado en macOS 14.4.1; como también una computadora con CPU Intel i9-13900KF equipada con DDR5-4000 DRAM y GPU NVIDIA RTX 4090 con 24 GB de VRAM.

Por último, la empresa comandada por Tim Cook, aseguró que OpenELM, originalmente de Hugging Face, fue entrenada con un conjuntos de datos disponibles públicamente pero;
Por último, la empresa comandada por Tim Cook, aseguró que OpenELM, originalmente de Hugging Face, fue entrenada con un conjuntos de datos disponibles públicamente pero;

Apple aseguró que OpenELM fue entrenada con un conjunto de datos disponibles públicamente pero; "sin ninguna garantía de seguridad".

En base a estos estudios de rendimiento, Apple ha descubrió que OpenELM opera más eficiente que otros LLM similares, como OLMo, desarrollado por Allen Institute for AI, ya que el suyo aporta una mejora del 2,36 por ciento en la precisión y, a la vez, requiere dos veces menos tokens de preentrenamiento.

Por último, la empresa comandada por Tim Cook, aseguró que OpenELM, originalmente de Hugging Face, fue entrenada con un conjuntos de datos disponibles públicamente pero; "sin ninguna garantía de seguridad". Esto significaría que; "existe la posibilidad de que estos modelos produzcan resultados inexactos, dañinos o sesgados".

Elon Musk anunció que liberará el código de Grok

Elon Musk anunció que liberará el código fuente de su modelo de inteligencia artificial (IA) Grok mientras avanza una demanda contra el desarrollador rival de ChatGPT, OpenAI.

El 11 de marzo, Musk publicó en X que esta semana el modelo será de código abierto, ya que anteriormente no lo era.

Aunque Musk no profundizó en sus planes para hacer que Grok sea de código abierto, las respuestas a su publicación fueron en su mayoría positivas, con usuarios elogiándolo por su decisión. Un usuario en particular respondió diciendo: "OpenAI debería hacer lo mismo. Si es que son 'abiertos'", a lo que Musk respondió que OpenAI es una "mentira".