Interprétation du modèle de langage natif Web3 ASI-1 Mini
Découvrez QBio, un outil d’IA médicale qui se concentre sur la classification de la densité mammaire et la génération de rapports transparents. Téléchargez une radiographie qui vous dira en quelques minutes si la densité du sein est A, B, C ou D, ainsi qu’un rapport détaillé expliquant le processus de prise de décision.
Développé par Fetch et Hybrid, le QBio n’est qu’un amuse-gueule, et la vraie star est l’ASI-1 Mini.
Fetch est un projet très ancien, dans les années où Defi occupait l’attention de l’ensemble du marché, Fetch s’est concentré sur l’IA + la Crypto, et s’est concentré sur le développement et l’application de la technologie générale de l’agent multi-modèle.
Qu’est-ce que l’ASI-1 Mini
En février de cette année, Fetch a lancé le premier modèle de langage large (LLM) natif du Web3 au monde - ASI-1 Mini. Qu’est-ce que le Web3 Native ? En termes simples, il s’intègre parfaitement à la blockchain, vous permettant non seulement d’utiliser l’IA, mais aussi d’investir, de former et de posséder l’IA par le biais de jetons $FET et de portefeuilles ASI.
Qu’est-ce que l’ASI-1 Mini exactement ?
Il s’agit d’un grand modèle de langage conçu pour l’IA agentique, qui peut coordonner plusieurs agents d’IA et gérer des tâches complexes en plusieurs étapes.
Par exemple, l’agent d’inférence ASI derrière QBio fait partie de l’ASI-1 Mini. Non seulement il classe la densité mammaire, mais il explique également le processus de prise de décision et résout le « problème de la boîte noire » de l’IA. De plus, ASI-1 Mini n’a besoin que de deux GPU pour fonctionner, par rapport à d’autres LLM (tels que DeepSeek, qui nécessite 16 GPU H100), le coût est très faible, adapté aux institutions attentives à l’utilisation
d’ASI-1 Mini Comment
exactement ASI-1 Mini est-il innovant Les performances d’ASI-1 Mini sont comparables à celles des principaux LLM, mais le coût du matériel est considérablement réduit, Il propose des modèles d’inférence dynamiques et des capacités adaptatives avancées pour une prise de décision plus efficace et contextuelle.
MoM et MoA
sont tous deux des acronymes, alors n’ayez pas peur, c’est simple : Mélange de Modèles (MoM), Mélange d’Agents (MoA).
Imaginez une équipe d’experts en IA, chacun concentré sur une tâche différente, soyeuse et transparente. , ce qui permet non seulement d’améliorer l’efficacité, mais aussi de rendre le processus de prise de décision plus transparent. Par exemple, dans l’analyse d’images médicales, le MoM peut choisir un modèle spécialisé dans la reconnaissance d’images et l’autre spécialisé dans la génération de texte, et le MoA coordonne le résultat des deux modèles pour s’assurer que le rapport final est à la fois précis et facile à lire.
Transparence et extensibilitéLes
LLM traditionnels ont tendance à être des « boîtes noires » où vous leur posez des questions et ils vous donnent des réponses, mais pourquoi ils ont répondu cela, désolé, sans commentaire. L’ASI-1 Mini est différent, et avec un raisonnement continu en plusieurs étapes, il peut vous dire que j’ai choisi cette réponse pour ces raisons, en particulier dans le domaine médical, qui est crucial.
L’ASI-1 Mini disposera d’une fenêtre contextuelle allant jusqu’à 10 millions de jetons, prendra en charge des capacités multimodales (par exemple, le traitement d’images et de vidéos) et lancera une série de modèles Cortex à l’avenir, en se concentrant sur des domaines de pointe tels que la robotique et la biotechnologie.
Efficacité matérielleAlors
que d’autres LLM nécessitent des coûts matériels élevés, l’ASI-1 Mini ne nécessite que deux GPU pour fonctionner. Cela signifie que même une petite clinique peut se le permettre, sans avoir besoin d’un centre de données d’un million de dollars.
Pourquoi est-il si efficace ? Parce que l’ASI-1 Mini est conçu avec la philosophie du « less is more ». Il optimise la structure de l’algorithme et du modèle afin de maximiser l’utilisation des ressources informatiques limitées. En revanche, d’autres LLM ont tendance à poursuivre des modèles à plus grande échelle, ce qui entraîne une consommation de ressources importante.
Piloté par la communautéContrairement à
d’autres grands modèles de langage, ASI-1 Mini est piloté par la communauté grâce à une formation décentralisée. ASI-1 Mini est un produit freemium à plusieurs niveaux pour les détenteurs de $FET qui peuvent se connecter à un portefeuille Web3 pour débloquer toutes les fonctionnalités. Plus vous détenez de jetons FET dans votre portefeuille, plus vous pouvez explorer les capacités du modèle.
Ce modèle communautaire, à l’instar du crowdfunding, n’est rien d’autre qu’une formation et une validation de l’intelligence artificielle, de la haute technologie, non plus seulement pour l’élite, mais pour que tout le monde puisse y participer.
Aujourd’hui, alors que les LLM sont relativement matures, pourquoi avez-vous besoin de construire un ASI-1 Mini seul ? C’est facile à comprendre, et cela comble le vide où le Web3 converge avec l’IA.
À l’heure actuelle, les LLM (tels que ChatGPT et Grok) servent principalement des environnements centralisés, et ASI-1 Mini est le premier LLM conçu pour les écosystèmes décentralisés. Non seulement cela rend l’IA plus transparente et plus efficace, mais cela permet également aux membres de la communauté de bénéficier directement de la croissance de l’IA.
L’émergence d’ASI-1 Mini marque la transformation de l’IA de la « boîte noire » à la « transparence », de la « centralisée » à la « décentralisée », et de l'« outil » à l'« actif ». Il peut jouer un rôle non seulement dans le domaine médical (comme QBio), mais aussi dans de nombreux domaines tels que la finance, le droit et la recherche scientifique.
Ce mois-ci, Fetch s’est associé à Rivalz pour intégrer l’ASI-1 Mini dans le système de coordination des données agentiques (ADCS) de Rivalz pour l’inférence de l’IA sur la chaîne. Grâce à cette collaboration, les applications décentralisées peuvent accéder à des capacités avancées d’inférence d’IA directement sur la blockchain.
Les environnements blockchain traditionnels sont limités en ressources, et les contrats intelligents ne peuvent gérer que des tâches légères, souvent par le biais d’oracles pour obtenir des données simples (telles que les prix), et ne peuvent pas exécuter directement des modèles d’IA complexes. ADCS résout parfaitement ce problème, avec des calculs complexes pour l’inférence de l’IA effectués hors chaîne, et les résultats sont renvoyés en toute sécurité à la blockchain, garantissant la décentralisation et la confiance.