Un service open source qui permet de comparer les résultats de prompts entre plusieurs LLM.
Pour l'instant ça supporte:
- OpenAI
- LlaMa (chez Replicate)
- Claude 2
Un ensemble de technique pour générer des récapitulatifs de textes.
Un Agent utilisant GPT pour créer un projet informatique entier avec étude de marché, design de la base de données et écriture du code.
Dans le même genre https://gpt-engineer.readthedocs.io/en/latest/
Un article de recherche qui démontre qu'à priori tous les LLM actuels sont vulnérable à des injections de prompt pour leur faire générer du texte "harmful".
Les auteurs expliquent que ce genre d'attaque était déjà un problème en computer vision depuis 10 ans et qu'aucune solution n'a été vraiment efficace.
Ce genre de comportement pourrait bien être impossible à éviter avec les LLM.
Un serverless Python spécialisé dans l'exécution des modèles d'IA
Classement des meilleurs LLM Open Source (à différents niveaux) disponibles sur HuggingFace
Une technique pour augmenté la taille de la fenêtre de contexte de LlaMa 2
Un wrapper pour utiliser les LLMs open source (LlaMa, Mistral, etc)
La CLI reprend l'interface de Docker avec des ollama pull llama2
ou ollama run llama2
.
ça tourne dans le CPU et demande pas mal de RAM (32Go pour les modèles en version 13B)
Des modèles obtenu en fine tunant LlaMa v2 qui obtiennent de très bonnes performances même face à GPT3.5 et GPT4
Un super outil pour comparer les outputs des principaux LLM
Un article qui parle de la complexité des systèmes actuels de machine learning
Les performances de GPT-4 seraient dégradées depuis Mars.
OpenAI procède à des changements silencieux sur les algorithmes disponibles via ses API et la précision de GPT4 aurait été fortement dégradée entre mars et juin.
Une des explications potentielle serait l'utilisation de "sous modèles" GPT4 entrainés pour des tâches spécifiques avec un dispatching. Tout ça pour réduire les coûts de fonctionnement.
Llama 2 est sorti et Meta l'a rendu disponible en Open Source avec utilisation commerciale.
La licence n'est pas full open source comme pourrait l'être une Apache 2.0
- interdiction d'utiliser Llama pour améliorer d'autres modèles
- licence spécial à demander à Meta après 700 millions d'utilisateurs
Disponible chez Huggingface!
(L'article présente aussi un comparatif des modèles open source)
Une explication détaillée de ce que sont les embeddings et leur usage.
Les "embeddings" sont aux coeurs de tous les systèmes d'IA actuels et bien sur les Transformers (GPT, StableDiffusion, Midjourney, etc)
Ce sont des représentation mathématique de textes, d'images pouvant ensuite être traitées par des réseaux de neurones mais aussi par des fonctions mathématiques traditionnelles car ce ne sont que des vecteurs ou des matrices à N dimensions.
Un ecosystème autour de la plupart des projets de LLM (open source ou non).
On voit dans leur benchmark qu'il n'y a que le modèle GPT4All 13B snoozy
qui a un score comparable à GPT-3.
Dans la description des modèles on peut savoir si ils sont véritablement open source ou non.
Un réseau de GPU décentralisé, c-a-d c'est les GPU de personnes qui sont utilisées pour faire des tâches complexes comme des entrainements de réseaux de neurones et en échange les propriétaires sont rémunérés.
MonsterAPI permet de faire du fine tunning de LLM sans connaissances en programmation
Un fork de LLaMA qui peut utiliser des contextes de 256K tokens contre 2048 pour le modèle originel.
Le code et le modèle entrainé sont sous licence Apache 2.0
Un outil pour détecter les erreurs ou les problèmes de performances dans l'utilisation de modèles d'IA
HuggingFace lance son clone de ChatGPT en 100% open source