Weekly Shaarli

All links of one week in a single page.

Week 24 (2024年6月10日)

Stable Diffusion 3 Medium
thumbnail

Stability AI release son modèle Stable Diffusion 3 medium en téléchargement.

Les modèles de la famille Stable Diffusion 3 sont disponibles depuis plusieurs mois via l'API de Stability AI, notamment SD3 Large qui est leur modèle le plus performant.

Le modèle est release avec une licence Open Source qui interdit l'utilisation commerciale.

Après la release de Codestral en MNPL par Mistral, Stability protège aussi ses investissements en restreignant l'utilisation de leur modèle.

D'un côté ça peut se comprendre au vu des investissement nécessaires à l'entrainement, d'un autre côté le succès de Stable Diffusion est beaucoup venu de sa très grande communauté qui ont créé énormément de ressources et beaucoup de valeur autour du modèle de base.

How we built Text-to-SQL at Pinterest

Un retour d'expérience très complet sur le système d'interrogation du datawarehouse de Pinterest avec du langage naturel.

Ils ont construit un RAG avec lequel les utilisateurs peuvent poser des questions en langage naturel. 40% du temps le résultat est bon du premier coup et le reste du temps les utilisateurs doivent affiner leur question en plusieurs messages. (comme toujours, l'IA reste un copilote)

Une idée intéressante, ils utilisent les questions les plus courantes sur une table pour générer un summary de la table et son utilité. Ce summary est ensuite vectorisé.

Ils utilisent OpenSearch (la fork d'Elasticsearch) comme moteur de recherche vectoriel notamment parce qu'ils peuvent utiliser le scoring boost.

L'article est une mine d'information et ils donnent tous leurs prompts!

Taxonomy of Prompting Techniques

Une méta étude qui regroupe toutes les méthodes connues de prompting.

CodeAct - Executable Code Actions Elicit Better LLM Agents
thumbnail

Une nouvelle technique pour planifier et faire exécuter des actions par un Agent en utilisant uniquement du code Python.

Plutôt que de fournir des outils virtuels que l'Agent peut utiliser en répondant un certain format JSON par exemple, CodeAct propose plutôt de permettre à l'Agent d'utiliser directement ces actions dans du code sous la forme de fonctions.

Déjà c'est assez malin car le code est beaucoup plus facile à générer pour un LLM qu'un DSL custom représentant des fonctions.

Aussi, le LLM peut maintenant utiliser directement les primitives de programmation comme les boucles ou les conditions pour arriver à ses fins plus rapidement.

Par contre, il y a du gros travail sur la génération de code pour éviter de faire n'importe quoi (malicious inputs) ou des choses imprévues comme utiliser des paquets externes non disponibles.

Gumloop - IA automation platform

Un produit NoCode spécialisé dans la création de workflows avec de l'IA.

L'outil est simple à prendre en main même pour des non-tech et en plus ils ont pleins de templates prêt à l'emploi.

Perplexity AI Is Lying about Their User Agent
thumbnail

Perplexity n'utilisent pas le User Agent qu'ils déclarent utiliser.

Cela empêche de bloquer le bot qui scrape les pages web pour Perplexity (et ils ne respectent pas non plus le robot.txt bien évidemment)

Introducing Lamini Memory Tuning: 95% LLM Accuracy, 10x Fewer Hallucinations
thumbnail

Une nouvelle technique qui comme le RAG, est utilisée pour permettre au LLM de répondre à des questions sur des données non présentes dans le corpus d'entrainement initial.

Pour ça, ils se basent sur un fine-tuning de millions de LoRa avec les documents qui seront sélectionnés au moment de l'inférence pour répondre à la question.

Ils annoncent des résultats impressionnants avec 95% de précision sur un cas d'usage Text-to-SQL vs 50% avec un RAG.

Cette méthode permet de remplacer un RAG avec une nouvelle technique d'entrainement mais aussi de réduire énormément les hallucinations.

Ils expliquent les détails de leur méthode dans ce papier de recherche: Banishing LLM Hallucinations Requires Rethinking Generalization

Si ça se concrétise c'est game changer pour l'écosystème LLM qui pourrait délaisser le RAG pour le Memory Tuning dans certains cas d'usage.

AI Text to Sound Effects Generator | ElevenLabs
thumbnail

ElevenLabs propose maintenant de générer des sons d'ambiance.

Ça peut être des bruitages comme des applaudissements mais aussi des voix avec un style particulier comme "voix d'une vieille dame en sanglot".

Bonne nouvelle pour le monde de la création de contenu audio-visuel !

Luma Dream Machine
thumbnail

Luma AI sort un modèle de génération vidéo d'une qualité comparable à Sora de OpenAI.

Il reste encore des limitations, notamment sur la représentation du mouvement, des objets qui changent entre les frames ou la difficulté à représenter du texte mais le résultat est déjà de très bonne qualité !

La course aux modèles de génération vidéo semble être lancée mais j'ai l'intuition qu'il y aura beaucoup moins de participants que pour le texte ou l'image car les coûts d'entraînement GPU de ces modèles vidéo sont exorbitants

What We Learned from a Year of Building with LLMs (Part I)
thumbnail

Un REX sur l'utilisation de LLMs en production.

Prompt Engineering:

  • mettre l'accent sur les techniques de prompting (chain of thought etc)
  • travailler sur la structure des données en entrée et en sortie

RAG:

  • utiliser de la recherche hybride (vecteur + keyword)
  • préférer le RAG au fine tuning pour la recherche de connaissance
  • les long contextes des modèles ne rendront pas les RAG obsolètes

LLM Engineering:

  • utiliser des workflow LLM qui mélangent prompt engineering et software engineering pour de meilleurs résultats
  • faire générer des plans aux Agents afin d'améliorer la reproductibilité des résultats
  • ne pas oublier de faire varier les méta-paramètres (temperature, top_p, etc)
  • mettre en place des stratégie de cache

Test et évaluation:

  • utiliser des tests unitaires avec des exemples réels
  • évaluer les résultats avec d'autres LLM
  • les évaluations apparaissent entre 5 et 10% du temps même sur des tâches simples
Firebase Genkit Typescript

La lib Firebase Genkit de Google pour LLM est très bien pensée.

Contrairement à Langchain, le design est simple et le nombre de features limité à des abstraction de bas niveau.

  • Abstraction autour des modèles (LLM et aussi image)
  • Génération de données structurées avec schéma de validation Zod en entrée et en sortie (on fait la même chose chez Didask)
  • Utilisation d'outils par les LLMs (la aussi définis avec Zod!)

Je ne suis pas super fan de leur manière de gérer les templates de prompt par contre, je préfère utiliser du pur Javascript.

Le gros bémol c'est que l'on a pas accès aux modèles d'OpenAI.

WrenAI makes your database RAG-ready. Implement Text-to-SQL more accurately and securely.
thumbnail

Une solution clé en main de Text-to-SQL, un RAG pour poser des questions en langage naturelle à sa base de données.

Une autre solution un peu plus mature: Dataherald

Les deux sont Open Source :-)

Silicon Valley’s Best Kept Secret: Founder Liquidity
thumbnail

Lors des levées de fonds successives, les founders d'une startup se voient parfois offrir de se faire racheter des parts pour se faire de l'argent.

Cela leur permet de sécuriser leur investissement dans la startup en sortant une partie des bénéfices.

A priori cette pratique est entourée de secret aux Etats Unis au moins.

Your Node is Leaking Memory? setTimeout Could be the Reason

Un article qui parle des timeout en Node.js et de la manière dont ils peuvent être la cause de memory leak même en utilisant clearTimeout.

L'objet Timeout conserve un contexte qui vient de la closure utilisée lors de la déclaration et il conserve aussi les références en provenance de AsyncLocalStorage si un contexte ASL est présent.

Bref, il vaut mieux set la variable à null une fois que l'on a clear le timeout.

Literal AI - Multi-modal LLM observability and evaluation platform
thumbnail

Un outil de LLMOps dans la même veine que Langfuse.

Ça permet l'observabilité des applications LLM avec études des étapes de générations et même possibilité de rejouer directement les prompts.

Ils proposent aussi une partie évaluation et une partie création collaborative de prompts.

Your AI Product Needs Evals
thumbnail

Un très bon article sur la manière d'évaluer des système de GenAI (RAG mais pas que)

  • Avoir des interfaces bien foutues pour l'évaluation des données (question + réponse)
  • Pas forcément besoin d'outils sophistiqués (même Excel peut faire l'affaire)
  • Chaque système nécessite une évaluation personnalisée
  • Écrire beaucoup de tests
  • Utiliser les LLM pour générer des données de test
  • Réutiliser son infrastructure d'évaluation pour le debug et le fine-tuning