Monthly Shaarli

All links of one month in a single page.

July, 2023

The Most Powerful Law in Software
thumbnail

Un article sur la loi de Conway qui théorise un lien fort entre la structure d'un système (software par exemple) et la structure des moyen de communication de ceux qui le conçoive.

Unleash the true Llama 2 potential from day one 💪 In case you've missed recent developments, here are a few pro tips: 🚀 Go beyond 4k tokens with RoPE scaling 🚀 🤏 4-bit quantization 🤏 🧵 Let's dive! https://t.co/z6Lpjyx7mn" / X

Une technique pour augmenté la taille de la fenêtre de contexte de LlaMa 2

Meet FreeWilly, Our Large And Mighty Instruction Fine-Tuned Models
thumbnail

Des modèles obtenu en fine tunant LlaMa v2 qui obtiennent de très bonnes performances même face à GPT3.5 et GPT4

Pourquoi n'y a t-il pas de Google européen ?
thumbnail

Excellent article de Ploum sur la différence de la mesure du succès aux USA (et en Chine) comparée à l'Europe.

Google, Facebook et Ali Baba auront sûrement disparu dans 50 ans mais qui pourrait imaginer un monde sans HTTP ou Linux ?

Classification avec gzip

Des chercheurs ont réussi à avoir de meilleurs résultats que BERT et son réseau de neurones sur des tâches de classification de texte avec un classifieur très simple utilisant l'algorithme de compression gzip!

What are embeddings

Une explication détaillée de ce que sont les embeddings et leur usage.

Les "embeddings" sont aux coeurs de tous les systèmes d'IA actuels et bien sur les Transformers (GPT, StableDiffusion, Midjourney, etc)

Ce sont des représentation mathématique de textes, d'images pouvant ensuite être traitées par des réseaux de neurones mais aussi par des fonctions mathématiques traditionnelles car ce ne sont que des vecteurs ou des matrices à N dimensions.

Introducing no-code LLM FineTuning with MonsterAPI
thumbnail

MonsterAPI permet de faire du fine tunning de LLM sans connaissances en programmation

Managers Can't Always Be Friendly - Why You Need to Scare Your Employees
thumbnail

Un article sur la nécessité de dire l'inconfortable vérité lors des one-to-one afin de permettre à chacun de s'améliorer

Liste WAREZ direct download e torrents (videos / ebooks/jeux) Mai 2022 - Warrior du Dimanche

Du warez, des torrents et tout le reste 🏴‍☠️

Zenbleed CPU fail

Une faille qui affecte les CPU AMD.

C'est causé par l'utilisation de certaines instructions spécialisées de l'ensemble AVX2 qui lors d'une mauvaise exécution spéculative revient à une faille de type use-after-free.

jmorganca/ollama: Get up and running with large language models locally
thumbnail

Un wrapper pour utiliser les LLMs open source (LlaMa, Mistral, etc)

La CLI reprend l'interface de Docker avec des ollama pull llama2 ou ollama run llama2.

ça tourne dans le CPU et demande pas mal de RAM (32Go pour les modèles en version 13B)

Dégradation des performances de GPT4

Les performances de GPT-4 seraient dégradées depuis Mars.

OpenAI procède à des changements silencieux sur les algorithmes disponibles via ses API et la précision de GPT4 aurait été fortement dégradée entre mars et juin.

Une des explications potentielle serait l'utilisation de "sous modèles" GPT4 entrainés pour des tâches spécifiques avec un dispatching. Tout ça pour réduire les coûts de fonctionnement.

Llama 2 is here - get it on Hugging Face
thumbnail

Llama 2 est sorti et Meta l'a rendu disponible en Open Source avec utilisation commerciale.

La licence n'est pas full open source comme pourrait l'être une Apache 2.0

  • interdiction d'utiliser Llama pour améliorer d'autres modèles
  • licence spécial à demander à Meta après 700 millions d'utilisateurs

Disponible chez Huggingface!

(L'article présente aussi un comparatif des modèles open source)

GPT4All
thumbnail

Un ecosystème autour de la plupart des projets de LLM (open source ou non).

On voit dans leur benchmark qu'il n'y a que le modèle GPT4All 13B snoozyqui a un score comparable à GPT-3.

Dans la description des modèles on peut savoir si ils sont véritablement open source ou non.

fal.ai

Un serverless Python spécialisé dans l'exécution des modèles d'IA

Open LLM Leaderboard - a Hugging Face Space by HuggingFaceH4
thumbnail

Classement des meilleurs LLM Open Source (à différents niveaux) disponibles sur HuggingFace

Filigrane Facile

Pour ajouter un filigrane (watermark) sur les documents officiels que l'on partage.

Ça évite qu'ils soient réutilisés à des fins d'arnaque.

"Pour dossier immobilier Foncia uniquement"

Gandalf | Lakera – Test your prompting skills to make Gandalf reveal secret information.
thumbnail

Un CTF de prompt injection

AI Playground
thumbnail

Un super outil pour comparer les outputs des principaux LLM

What we don't talk about when we talk about building AI apps | ★❤✰ Vicki Boykis ★❤✰
thumbnail

Un article qui parle de la complexité des systèmes actuels de machine learning

A collection of open source and public progression frameworks and career ladders
thumbnail

Une liste des niveaux d'ingénieurs dans plusieurs boites.

Digest.club - The Frontpage of Teams Knowledge
thumbnail

Un outil de veille partagé en entreprise

Q Blocks - Decentralized GPUs for Machine Learning

Un réseau de GPU décentralisé, c-a-d c'est les GPU de personnes qui sont utilisées pour faire des tâches complexes comme des entrainements de réseaux de neurones et en échange les propriétaires sont rémunérés.

LongLLaMA is a large language model capable of handling long contexts. It is based on OpenLLaMA and fine-tuned with the Focused Transformer (FoT) method.
thumbnail

Un fork de LLaMA qui peut utiliser des contextes de 256K tokens contre 2048 pour le modèle originel.

Le code et le modèle entrainé sont sous licence Apache 2.0