Un article sur une méthode de prompt engineering pour réduire la latence d'un LLM en découpant une tâche en sous tâche puis en générant chaque partie indépendamment avant de merge le tout.
L'article est pleins d'exemples concrets en annexes
Un article sur la méthode du Tree of Thoughts pour résoudre des problèmes complexes avec un LLM.
Cet article a le mérite d'être compréhensible et de fournir des exemples concrets
Toute une liste d'articles sur le Chain Of Thought
Qu'est-ce qu'on rigole 😁
OpenChat est une version fine tuné de Mistral 7B qui offre des performances comparable à ChatGPT (version de mars).
Il est aussi plus performant que le modèle Grok de X.com qui fait 30 milliards de paramètres contre 7 milliards pour Mistral.
Plus d'info ici https://twitter.com/baptistejamin/status/1726571942319460381
Une solution pour utiliser d'autres LLMs en conservant les mêmes API/SDK que pour OpenAI.
Mistral et Claude 2 sont disponibles simplement en changeant l'URL de OpenAI par celle du proxy.
Sous le capot ça utilise les Cloudflare Worker pour réduire la latence au maximum.
Une lib AWS qui wrap toute la complexité pour déployer une application fullstack sur AWS.
Ça permet d'utiliser les services AWS comme EC2, S3, RDS (Postgres), de l'authentification et pleins d'autre chose simplement en instanciant des classes dans du code.
Une base de données orientée Document comme Mongo DB mais construite avec Postgres.
Un article qui évalue la performance des LLMs en fonction de l'endroit ou sont les informations dans le prompt.
Avec des prompts de plus en plus long, les LLMs ont tendance à "perdre" de l'information car la complexité du mécanisme d'attention est fonction du carré de la taille du prompt.
Les chercheurs ont trouvé que les informations placées au début et à la fin avaient plus de chance d'être retrouvées/utilisées.
C'est ce qui est placé au début du prompt qui a le plus d'importance pour le LLM, puis ce qui est placé à la fin et tout ce qui est au milieu
Microsoft lance aussi son service de création d'assistant à la "GPT" avec une intégration avec tous les outils Office 365.
Une alternative à Ngrok et en plus ça peut être hébergé sur son propre serveur.
Bore permet de rediriger du traffic depuis internet vers un processus local. Ça permet par exemple de recevoir des webhooks en local
Une solution simple pour gérer les dispute sur Stripe et éviter un ban
Un jeux vidéo est dessiné sur un canvas avec des explications sur le fonctionnement des différents élements dynamique (score, barre de déplacement, etc)
Ensuite un Agent créer le jeux à partir de ça.
Dans le même genre pour des composants web https://twitter.com/jasoncwarner/status/1725291989506367727?s=46
Une expérimentation de manipulation automatique du browser avec GPT-4V en renfort pour la compréhension des interfaces.
Google ajoute un watermark inaudible dans les fichiers audio générés par son modèle Lyria.
Une limitation codé en dur dans le kernel Linux limitait son utilisation du d'une machine à 8 coeurs seulement.
On devrait voir une amélioration des perfs dans la prochaine version.
Un outil de gestion de projet mais rien à voir avec Jira car c'est moderne, rapide et bien fait
Un autre bot Agent LLM qui lui propose de réaliser des tâches comme le support.
Un bot Agent LLM qui centralise le savoir de l'entreprise
OpenAI était surtout un fournisseur d'infrastructure LLM mais avec leurs dernières annonces ils se positionnent également en fournisseurs d'applications.
Il faut faire attention avec OpenAI, le vendor-lock est très important sur la plateforme.
Aussi puisqu'ils sont dans les apps, se sont de potentiels compétiteurs donc il faut réfléchir à deux fois avant de soumettre des Assistants.