Weekly Shaarli
Week 30 (July 24, 2023)
Un article sur la nécessité de dire l'inconfortable vérité lors des one-to-one afin de permettre à chacun de s'améliorer
Pour ajouter un filigrane (watermark) sur les documents officiels que l'on partage.
Ça évite qu'ils soient réutilisés à des fins d'arnaque.
"Pour dossier immobilier Foncia uniquement"
Un wrapper pour utiliser les LLMs open source (LlaMa, Mistral, etc)
La CLI reprend l'interface de Docker avec des ollama pull llama2 ou ollama run llama2.
ça tourne dans le CPU et demande pas mal de RAM (32Go pour les modèles en version 13B)
Un article qui parle de la complexité des systèmes actuels de machine learning
Un serverless Python spécialisé dans l'exécution des modèles d'IA
Une technique pour augmenté la taille de la fenêtre de contexte de LlaMa 2
Une faille qui affecte les CPU AMD.
C'est causé par l'utilisation de certaines instructions spécialisées de l'ensemble AVX2 qui lors d'une mauvaise exécution spéculative revient à une faille de type use-after-free.
Des modèles obtenu en fine tunant LlaMa v2 qui obtiennent de très bonnes performances même face à GPT3.5 et GPT4
Excellent article de Ploum sur la différence de la mesure du succès aux USA (et en Chine) comparée à l'Europe.
Google, Facebook et Ali Baba auront sûrement disparu dans 50 ans mais qui pourrait imaginer un monde sans HTTP ou Linux ?
Classement des meilleurs LLM Open Source (à différents niveaux) disponibles sur HuggingFace
Du warez, des torrents et tout le reste 🏴☠️
Un CTF de prompt injection