Plateforme d'identité IA personnalisée Honcho : Comment les applications LM peuvent-elles débloquer des expériences hyper-personnalisées ?

Dernière mise à jour 2026-04-01 06:55:56
Temps de lecture: 1m
Plastic Labs a annoncé l'achèvement d'une levée de fonds de pré-amorçage de 5,35 millions de dollars et a lancé sa plateforme d'identité AI personnalisée, Honcho. Honcho vise à fournir des solutions personnalisées pour les grandes applications de modèle de langue (LLM), aidant les développeurs à mettre en œuvre facilement la personnalisation grâce à une approche plug-and-play. Il répond au défi courant auquel les développeurs sont confrontés de construire la modélisation des utilisateurs à partir de zéro en offrant des profils d'utilisateurs riches et persistants.

TL;DR

Avec l'essor des grands modèles linguistiques, la demande de personnalisation dans les logiciels est en croissance comme jamais auparavant. La plateforme Honcho nouvellement lancée par Plastic Labs adopte une approche "plug-and-play" conçue pour éviter aux développeurs de réinventer la roue lorsqu'il s'agit de construire des profils d'utilisateurs approfondis.

Le 11 avril (heure de Beijing), la start-up en IA Plastic Labs a annoncé avoir finalisé une levée de fonds de pré-amorçage de 5,35 millions de dollars. La ronde a été dirigée par Variant, White Star Capital et Betaworks, avec la participation de Mozilla Ventures, Seed Club Ventures, Greycroft et Differential Ventures. Les investisseurs providentiels incluent Scott Moore, NiMA Asghari et Thomas Howell. Dans le même temps, sa plateforme d'identité AI personnalisée, Honcho, est officiellement ouverte pour un accès anticipé.

Étant donné que le projet en est encore à ses débuts, la communauté cryptographique plus large sait très peu de choses sur Plastic Labs. Aux côtés de l'annonce de Plastic sur X concernant son financement et son lancement de produit, Daniel Barabander, partenaire général et conseiller chez l'investisseur principal Variant, a partagé une analyse approfondie du projet et de sa plateforme Honcho. Le contenu original est le suivant :

Avec l'essor des applications de grands modèles de langue (LLM), la demande de personnalisation dans les logiciels a augmenté de manière sans précédent. Ces applications s'appuient sur le langage naturel, qui varie en fonction de la personne à qui vous parlez - un peu comme si vous expliquiez un concept mathématique différemment à vos grands-parents qu'à vos parents ou à vos enfants. Vous adaptez instinctivement votre communication à votre public, et les applications LLM doivent de manière similaire "comprendre" avec qui elles interagissent pour offrir des expériences plus efficaces et personnalisées. Que ce soit un assistant thérapeutique, un conseiller juridique ou un compagnon de shopping, ces applications ont besoin d'une véritable compréhension de l'utilisateur pour offrir une valeur réelle.

Cependant, malgré l'importance cruciale de la personnalisation, il n'existe actuellement aucune solution clé en main que les applications LLM peuvent facilement intégrer. Les développeurs doivent souvent bricoler des systèmes fragmentés pour stocker les données utilisateur (généralement sous forme de journaux de conversation) et les récupérer au besoin. En conséquence, chaque équipe se retrouve à réinventer la roue en construisant son infrastructure de gestion de l'état utilisateur. Pire encore, des techniques telles que le stockage des interactions utilisateur dans une base de vecteurs et l'utilisation de la génération augmentée par récupération (RAG) ne peuvent rappeler que les conversations passées - elles ne peuvent pas capturer des aspects plus profonds de l'utilisateur tels que les intérêts, les préférences de communication ou la sensibilité au ton.

Plastic Labs présente Honcho, une plateforme plug-and-play qui permet aux développeurs d'implémenter facilement la personnalisation dans n'importe quelle application LL. Au lieu de construire un modèle d'utilisateur à partir de zéro, les développeurs peuvent simplement intégrer Honcho pour accéder instantanément à des profils d'utilisateurs riches et persistants. Ces profils vont au-delà de ce que les méthodes traditionnelles peuvent offrir, grâce à l'utilisation de techniques de pointe en sciences cognitives par l'équipe. De plus, ils prennent en charge des requêtes en langage naturel, permettant aux LL de s'adapter dynamiquement à leur comportement en fonction du profil de l'utilisateur.

En simplifiant la complexité de la gestion de l'état de l'utilisateur, Honcho ouvre la porte à un nouveau niveau d'expériences hyper-personnalisées pour les applications LL. Mais sa signification va bien au-delà : les profils utilisateur riches et abstraits générés par Honcho ouvrent également la voie à la longtemps insaisissable "couche de données utilisateur partagée".

Historiquement, les tentatives de construire une couche de données utilisateur partagée ont échoué pour deux raisons principales :

  • Manque d'interopérabilité : Les données utilisateur traditionnelles sont souvent étroitement liées à des contextes d'application spécifiques, ce qui rend difficile leur migration entre les applications. Par exemple, une plateforme sociale comme X pourrait modéliser les utilisateurs en fonction de ceux qu'ils suivent, mais ces données offrent peu de valeur pour le réseau professionnel sur LinkedIn. Honcho, en revanche, capture des caractéristiques utilisateur de niveau supérieur et plus universelles qui peuvent servir de manière transparente à toute application LM. Par exemple, si une application de tutorat découvre qu'un utilisateur apprend mieux par analogie, un assistant thérapeutique pourrait exploiter cette même idée pour communiquer de manière plus efficace, même si les deux cas d'utilisation sont totalement différents.

  • Manque de valeur immédiate : les couches partagées précédentes ont eu du mal à attirer les premiers utilisateurs d'application car elles ne fournissaient pas de bénéfices tangibles dès le départ, même si ces premiers utilisateurs étaient essentiels pour générer des données précieuses. Honcho adopte une approche différente : il résout d'abord le "problème principal" de la gestion de l'état de l'utilisateur pour les applications individuelles. À mesure que de nouvelles applications rejoignent, l'effet de réseau résultant aborde naturellement le "problème secondaire." Les nouvelles applications s'intègreront non seulement pour la personnalisation, mais bénéficieront également des profils d'utilisateurs partagés existants dès le départ, contournant complètement le problème du démarrage à froid.

Actuellement, des centaines d'applications sont en liste d'attente pour la bêta fermée de Honcho, couvrant des cas d'utilisation tels que le coaching en récupération d'addiction, les compagnons éducatifs, les assistants de lecture et les outils de commerce électronique. La stratégie de l'équipe est de d'abord se concentrer sur la résolution du défi central de la gestion de l'état de l'utilisateur pour les applications, puis de déployer progressivement la couche de données partagée pour les applications participantes. Cette couche sera soutenue par des incitations chiffrées : les premiers intégrateurs recevront des parts de propriété dans la couche de données et bénéficieront de sa croissance. De plus, les mécanismes de la blockchain garantiront que le système reste décentralisé et digne de confiance, dissipant les préoccupations concernant les entités centralisées extrayant de la valeur ou développant des produits concurrents.

Variant estime que l'équipe de Plastic Labs est bien placée pour relever le défi de la modélisation des utilisateurs dans les logiciels pilotés par LL. L'équipe a vécu ce point douloureux de première main lors de la construction de Bloom, une application de tutorat personnalisée basée sur le chat, et a réalisé que l'application ne pouvait vraiment pas comprendre les étudiants ou leurs styles d'apprentissage. Honcho est né de cette vision - et résout maintenant un problème auquel tout développeur d'application LL est susceptible de faire face.

Avertissement :

  1. Cet article est republié à partir de [ PANews]. Copyright belongs to the original author [Zen]. Si vous avez des préoccupations concernant la republication, veuillez contacter leGate Learnéquipe, qui le traitera par les canaux appropriés.

  2. Avertissement : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent pas un conseil en investissement.

  3. D'autres versions de cet article ont été traduites par l'équipe Gate Learn. Ne reproduisez, ne distribuez pas et ne plagiez pas ces versions traduites sans une attribution appropriée àGate.com.

Articles Connexes

Plasma (XPL) face aux systèmes de paiement traditionnels : une nouvelle approche du règlement transfrontalier et du cadre de liquidité pour les stablecoins
Débutant

Plasma (XPL) face aux systèmes de paiement traditionnels : une nouvelle approche du règlement transfrontalier et du cadre de liquidité pour les stablecoins

Plasma (XPL) se démarque nettement des systèmes de paiement traditionnels sur plusieurs dimensions essentielles. En matière de mécanismes de règlement, Plasma permet des transferts directs d’actifs on-chain, là où les systèmes traditionnels reposent sur la comptabilité des comptes et le règlement par des intermédiaires. Plasma offre des transactions quasi instantanées à faible coût, tandis que les plateformes classiques subissent généralement des délais et des frais multiples. Pour la gestion de la liquidité, Plasma s’appuie sur les stablecoins pour une allocation on-chain à la demande, alors que les systèmes conventionnels nécessitent des dispositifs de capital préfinancé. Enfin, Plasma prend en charge les smart contracts et un réseau ouvert à l’échelle mondiale, offrant ainsi une programmabilité et une accessibilité supérieures, alors que les systèmes de paiement traditionnels restent contraints par des architectures héritées et des infrastructures bancaires.
2026-03-24 11:58:52
Jito vs Marinade : analyse comparative des protocoles de Staking de liquidité sur Solana
Débutant

Jito vs Marinade : analyse comparative des protocoles de Staking de liquidité sur Solana

Jito et Marinade figurent parmi les principaux protocoles de liquidité staking sur Solana. Jito améliore les rendements via le MEV (Maximal Extractable Value), ce qui séduit les utilisateurs privilégiant des rendements plus élevés. Marinade propose une solution de staking plus stable et décentralisée, idéale pour les investisseurs ayant une appétence au risque plus modérée. La distinction essentielle entre ces protocoles repose sur leurs sources de rendement et leurs profils de risque.
2026-04-03 14:05:46
Analyse des Tokenomics de JTO : distribution, utilité et valeur à long terme
Débutant

Analyse des Tokenomics de JTO : distribution, utilité et valeur à long terme

JTO agit comme le token de gouvernance natif de Jito Network. Au cœur de l’infrastructure MEV dans l’écosystème Solana, JTO accorde des droits de gouvernance tout en alignant les intérêts des validateurs, stakers et searchers via les rendements du protocole et les incitations de l’écosystème. Doté d’une offre totale de 1 milliard de tokens, il est conçu pour équilibrer les récompenses à court terme et favoriser une croissance durable à long terme.
2026-04-03 14:07:03
Analyse de la Tokenomics de Morpho : cas d'utilisation de MORPHO, distribution et proposition de valeur
Débutant

Analyse de la Tokenomics de Morpho : cas d'utilisation de MORPHO, distribution et proposition de valeur

MORPHO est le Token natif du protocole Morpho, principalement destiné à la gouvernance et aux incitations de l’écosystème. En alignant la distribution du Token et les mécanismes d’incitation, Morpho relie les actions des utilisateurs, la croissance du protocole et les droits de gouvernance pour instaurer un framework de valeur à long terme au sein de l’écosystème du prêt décentralisé.
2026-04-03 13:13:29
Morpho vs Aave : analyse des différences de mécanisme et de structure entre les protocoles de prêt DeFi
Débutant

Morpho vs Aave : analyse des différences de mécanisme et de structure entre les protocoles de prêt DeFi

La principale différence entre Morpho et Aave concerne leurs mécanismes de prêt. Aave repose sur un modèle de Pool de liquidité, alors que Morpho renforce cette méthode en intégrant un système de mise en relation peer-to-peer (P2P), permettant une correspondance des taux d'intérêt plus efficace au sein du même Marché. Aave agit comme protocole de prêt natif, assurant une liquidité fondamentale et des taux d'intérêt stables. À l’inverse, Morpho se présente comme une couche d’optimisation, améliorant l’efficacité du capital en réduisant l’écart entre les taux de dépôt et d’emprunt. En résumé, Aave incarne « l’infrastructure », tandis que Morpho est conçu comme un « outil d’optimisation de l’efficacité ».
2026-04-03 13:09:32
Qu'est-ce que Tronscan et comment pouvez-vous l'utiliser en 2025?
Débutant

Qu'est-ce que Tronscan et comment pouvez-vous l'utiliser en 2025?

Tronscan est un explorateur de blockchain qui va au-delà des bases, offrant une gestion de portefeuille, un suivi des jetons, des insights sur les contrats intelligents et une participation à la gouvernance. D'ici 2025, il a évolué avec des fonctionnalités de sécurité renforcées, des analyses étendues, une intégration inter-chaînes et une expérience mobile améliorée. La plateforme inclut désormais une authentification biométrique avancée, une surveillance des transactions en temps réel et un tableau de bord DeFi complet. Les développeurs bénéficient de l'analyse de contrats intelligents alimentée par l'IA et d'environnements de test améliorés, tandis que les utilisateurs apprécient une vue unifiée de portefeuille multi-chaînes et une navigation basée sur des gestes sur les appareils mobiles.
2026-04-08 21:20:38