Un article sur la nécessité de dire l'inconfortable vérité lors des one-to-one afin de permettre à chacun de s'améliorer
Un serverless Python spécialisé dans l'exécution des modèles d'IA
Classement des meilleurs LLM Open Source (à différents niveaux) disponibles sur HuggingFace
Une technique pour augmenté la taille de la fenêtre de contexte de LlaMa 2
Du warez, des torrents et tout le reste 🏴☠️
Pour ajouter un filigrane (watermark) sur les documents officiels que l'on partage.
Ça évite qu'ils soient réutilisés à des fins d'arnaque.
"Pour dossier immobilier Foncia uniquement"
Un CTF de prompt injection
Une faille qui affecte les CPU AMD.
C'est causé par l'utilisation de certaines instructions spécialisées de l'ensemble AVX2 qui lors d'une mauvaise exécution spéculative revient à une faille de type use-after-free.
Un wrapper pour utiliser les LLMs open source (LlaMa, Mistral, etc)
La CLI reprend l'interface de Docker avec des ollama pull llama2
ou ollama run llama2
.
ça tourne dans le CPU et demande pas mal de RAM (32Go pour les modèles en version 13B)
Des modèles obtenu en fine tunant LlaMa v2 qui obtiennent de très bonnes performances même face à GPT3.5 et GPT4
Un super outil pour comparer les outputs des principaux LLM
Un article qui parle de la complexité des systèmes actuels de machine learning
Excellent article de Ploum sur la différence de la mesure du succès aux USA (et en Chine) comparée à l'Europe.
Google, Facebook et Ali Baba auront sûrement disparu dans 50 ans mais qui pourrait imaginer un monde sans HTTP ou Linux ?
Les performances de GPT-4 seraient dégradées depuis Mars.
OpenAI procède à des changements silencieux sur les algorithmes disponibles via ses API et la précision de GPT4 aurait été fortement dégradée entre mars et juin.
Une des explications potentielle serait l'utilisation de "sous modèles" GPT4 entrainés pour des tâches spécifiques avec un dispatching. Tout ça pour réduire les coûts de fonctionnement.
Une liste des niveaux d'ingénieurs dans plusieurs boites.
Llama 2 est sorti et Meta l'a rendu disponible en Open Source avec utilisation commerciale.
La licence n'est pas full open source comme pourrait l'être une Apache 2.0
- interdiction d'utiliser Llama pour améliorer d'autres modèles
- licence spécial à demander à Meta après 700 millions d'utilisateurs
Disponible chez Huggingface!
(L'article présente aussi un comparatif des modèles open source)
Des chercheurs ont réussi à avoir de meilleurs résultats que BERT et son réseau de neurones sur des tâches de classification de texte avec un classifieur très simple utilisant l'algorithme de compression gzip!
Une explication détaillée de ce que sont les embeddings et leur usage.
Les "embeddings" sont aux coeurs de tous les systèmes d'IA actuels et bien sur les Transformers (GPT, StableDiffusion, Midjourney, etc)
Ce sont des représentation mathématique de textes, d'images pouvant ensuite être traitées par des réseaux de neurones mais aussi par des fonctions mathématiques traditionnelles car ce ne sont que des vecteurs ou des matrices à N dimensions.
Un outil de veille partagé en entreprise
Un ecosystème autour de la plupart des projets de LLM (open source ou non).
On voit dans leur benchmark qu'il n'y a que le modèle GPT4All 13B snoozy
qui a un score comparable à GPT-3.
Dans la description des modèles on peut savoir si ils sont véritablement open source ou non.