Un agent LLM dans le terminal qui peut contrôler votre ordinateur, executer du code, naviguer sur internet etc.
Un plugin vscode qui assiste dans la création de tests avec de L'IA générative.
Un modèle de reflexion utilisant des LLM en plusieurs étapes pour arriver à une conclusion.
ça résume également les autres techniques, Chain of Thought, Tree of Thought, etc
Un service de review de PR avec un LLM.
ça fait un résumé des changements de chaque fichier de la PR mais aussi des conseils sur le code modifié
Testé sur 2 PR
Analyse intéressante du scaling des modèles d'IA
Un agent Minecraft utilisant GPT qui est capable d'apprendre de nouvelles compétences en générant et sauvegardant du code utilisé ensuite pour manipuler le jeu.
Les compétences sont sauvegardés dans une base de données vectorielle
Pleins de projets autour de l'écosystème de LangChain.
Une véritable mine d'or
Un outil pour Github qui permet de réduire la dette technique automatiquement en faisant des propositions comme convertir en Typescript, découper en modules, etc
Une liste de ressources pour comprendre le fonctionnement des LLMs
Un LLM spécialisé dans la génération de code, c'est complètement Open Source.
Par contre la fenêtre de contexte n'est que de 2048 tokens ce qui est peu comparé à GPT3.5 et 4 (16K et 8K tokens)
Un assistant AI pour écrire du code, générer des tests, faire du refactoring etc
Une lib Python pour formater correctement le texte généré par les LLM
Un service open source qui permet de comparer les résultats de prompts entre plusieurs LLM.
Pour l'instant ça supporte:
- OpenAI
- LlaMa (chez Replicate)
- Claude 2
Un ensemble de technique pour générer des récapitulatifs de textes.
Un article de recherche qui démontre qu'à priori tous les LLM actuels sont vulnérable à des injections de prompt pour leur faire générer du texte "harmful".
Les auteurs expliquent que ce genre d'attaque était déjà un problème en computer vision depuis 10 ans et qu'aucune solution n'a été vraiment efficace.
Ce genre de comportement pourrait bien être impossible à éviter avec les LLM.
Classement des meilleurs LLM Open Source (à différents niveaux) disponibles sur HuggingFace
Une technique pour augmenté la taille de la fenêtre de contexte de LlaMa 2
Un CTF de prompt injection
Un wrapper pour utiliser les LLMs open source (LlaMa, Mistral, etc)
La CLI reprend l'interface de Docker avec des ollama pull llama2
ou ollama run llama2
.
ça tourne dans le CPU et demande pas mal de RAM (32Go pour les modèles en version 13B)
Des modèles obtenu en fine tunant LlaMa v2 qui obtiennent de très bonnes performances même face à GPT3.5 et GPT4