Resultados de la búsqueda para "LLM"
Hoy
02:38

PIPPIN(pippin)sube un 20.56% en 24 horas

Noticias de Gate: mensaje, 2 de abril, según muestra la cotización de Gate, al momento de la publicación PIPPIN (pippin) cotiza actualmente en 0.0603 dólares, con un alza del 20.56% en las últimas 24 horas; tocó un máximo de 0.0779 dólares y retrocedió hasta un mínimo de 0.0499 dólares. El volumen de operaciones en 24 horas asciende a 21.2392 millones de dólares. La capitalización de mercado actual es de aproximadamente 60.3162 millones de dólares. Pippin es un unicornio SVG trazado con el último benchmark de LLM usando ChatGPT 4o. Pippin fue creado por Yohei Nakajima, quien es un innovador y líder de pensamiento ampliamente reconocido en el ámbito del AI VC. Es conocido por su método de construcción pública y ha estado constantemente a la vanguardia del movimiento de «AI for VC».
Más
PIPPIN17,93%
01:11

TAO sube 94.9% en el último mes, Bittensor completa el mayor preentrenamiento de LLM descentralizado de la historia

El precio de TAO continúa subiendo, alcanzando un nuevo máximo de 337,84 dólares, con un aumento de 24 horas del 13,6%. El reconocido inversor Jason Calacanis se mostró optimista sobre TAO e invirtió en proyectos de su ecosistema. La subred de Bittensor completó un importante preentrenamiento, demostrando su capacidad de aplicación práctica.
Más
TAO-1,35%
BTC-3,12%
05:03

a16z: Los modelos de negocio de agentes de IA desafían la lógica de la publicidad en internet; el mercado global de publicidad en línea alcanzará 291 mil millones de dólares en 2025

Noticias de Gate News: El 23 de marzo, según datos de Mordor Intelligence, el tamaño del mercado global de publicidad en línea en 2025 será de aproximadamente 291 mil millones de dólares, dominado principalmente por Google. a16z señala que desde 1997 hasta 2024, el núcleo del modelo comercial de Internet ha sido monetizar capturando parte de la atención del usuario a través de publicidad. Sin embargo, los modelos de lenguaje grande (LLM) y los agentes de IA no se verán afectados por la publicidad, lo que significa que la lógica fundamental de la "distracción de atención" tradicional ya no se sostiene.
Más
13:08

Tether lanza el marco BitNet LoRA, que soporta el entrenamiento de grandes modelos en dispositivos móviles

Noticia de Gate News: El 17 de marzo, QVAC Fabric, subsidiaria de Tether, lanzó el primer marco de microajuste LoRA multiplataforma a nivel mundial dirigido a BitNet de Microsoft (LLM de un bit), reduciendo significativamente los umbrales de memoria de video y poder de cómputo para el entrenamiento de grandes modelos. El marco admite microajuste LoRA e aceleración de inferencia en Intel, AMD, Apple Silicon serie M y GPU móviles (incluyendo Adreno, Mali y Apple Bionic).
Más
07:09

El cofundador de Sentry cuestiona que LLM ralentiza la velocidad de desarrollo, afirma que OpenClaw genera demasiado código y es difícil de salvarse

David Cramer, cofundador de Sentry, expresó que los grandes modelos de lenguaje no han mejorado la productividad, sino que han generado código más complejo que ralentiza la velocidad de desarrollo. Cuestiona el enfoque de generación automática de código, argumentando que la calidad de los resultados es deficiente, especialmente en el desarrollo incremental y la consistencia de estilo. Señala basándose en su experiencia personal que la construcción de software sigue siendo difícil, y que los cambios psicológicos han afectado sus contribuciones.
Más
11:02

El Instituto de Tecnología de la Información y las Comunicaciones de China, en colaboración con universidades, descubrió y corrigió la vulnerabilidad crítica de inyección de comandos OpenClaw

El Instituto de Telecomunicaciones de China (CAICT) y equipos universitarios descubrieron una vulnerabilidad de inyección de comandos impulsada por LLM en el módulo bash-tools del marco de código abierto OpenClaw durante su auditoría. Los atacantes pueden ejecutar comandos remotos inducidos para realizar ataques de ejecución de código remoto y robo de datos. Se ha iniciado el proceso de divulgación de vulnerabilidades y se han presentado recomendaciones de corrección.
Más
09:32

Cofundador de AMI Labs Xie Saining: Los LLM son hasta cierto punto «anti-Bitter Lesson», el modelo del mundo es el futuro

Xie Saining criticó en una entrevista la actual línea de desarrollo de IA dominada por grandes modelos de lenguaje, argumentando que limita el aprendizaje de la IA sobre el mundo real, y enfatizó las ventajas de los modelos del mundo. Él cree que crear agentes inteligentes capaces de sobrevivir en la realidad es más desafiante, mencionando que AMII Labs se enfoca en la recopilación de datos reales e planea lanzar gafas inteligentes de IA y robots en el futuro.
Más
06:07

Subred de Bittensor completó el preentrenamiento de LLM con 72 mil millones de parámetros, TAO subió 54.8% en las últimas dos semanas

La subred Bittensor Templar completó el preentrenamiento del modelo de lenguaje descentralizado Covenant-72B de 72 mil millones de parámetros el 10 de marzo. El modelo mostró un desempeño excepcional en la prueba MMLU, superando múltiples modelos de línea base centralizados. El proyecto atrajo la colaboración de más de 70 nodos, y todos los pesos y puntos de control se han publicado bajo la licencia Apache. Impactado por esta noticia, Bittensor y su token experimentaron aumentos generalizados.
Más
TAO-1,35%