Weekly Shaarli

All links of one week in a single page.

Week 44 (30 octobre 2023)

What Happened To Google Search?
thumbnail

Une vidéo très intéressante sur le déclin de l'hégémonie de Google.

Cela s'explique notamment par une part de plus en plus importante des recherches Instagram / TikTok qui proposent des résultats plus interactifs (images, vidéos)

Aussi le SEO à une grosse part de responsabilité dans la merdification des résultats avec des articles de plus en plus vides écrits par des IA dans le seul but de placer des mots-clés.

Finalement, on note la montée en puissance de Reddit pour du contenu certifié "User generated" et des réponses de qualité

Introducing PlayHT 2.0 Turbo ⚡️ - The Fastest Generative AI Text-to-Speech API

Une API de Text-to-Speech avec une latence très basse (300ms).

Ça veut dire que l'on peut envoyer du texte en streaming et recevoir de l'audio en streaming en pluguant GPT4 directement sur Turbo par exemple.

C'est la porte ouvertes aux conversations quasi temps réel (reste encore le Speech-to-Text et surtout l'envoi du prompt à GPT4 qu'il ne sera pas possible de streamer par contre)

GitHub - kyegomez/tree-of-thoughts: Plug in and Play Implementation of Tree of Thoughts: Deliberate Problem Solving with Large Language Models that Elevates Model Reasoning by atleast 70%
thumbnail

Des exemples de prompt pour faire du Tree of Thought

GitHub - danswer-ai/danswer: Ask Questions in natural language and get Answers backed by private sources. Connects to tools like Slack, GitHub, Confluence, etc.
thumbnail

Un framework RAG qui est déjà connecté à pleins d'outils et les synchronise dans des bases de données vectorielles.

Pourquoi et comment améliorer le LCP (chargement) de vos pages ?
thumbnail

Une série d'articles pour améliorer la vitesse de chargement des pages web.

Generative AI exists because of the transformer
thumbnail

Excellent article qui expliquer le fonctionnement des LLMs

Large Language Models Understand and Can Be Enhanced by Emotional Stimuli

Une étude qui démontre des amélioration des performances des LLMs lorsque l'on inclut un enjeu émotionnel dans les questions.

Par exemple: "Rédige un compte rendu sur la RGPD, c'est très important pour ma carrière"

La fin de la phrase va améliorer la qualité de la réponse fournie par le LLM.

Clean API with Next.js Middleware Pipes
thumbnail

Une technique pour wrapper les handler API dégueulasses forcés par l'utilisation de Express en quelque chose d'un peu plus moderne.

Next.js encore sur Express en 2023 :(

Vector indexes for Embedding
thumbnail

Une explication de fonctionnement des opérations sur les vecteurs (embedding LLM)

  • distance euclidienne
  • produit intérieur négatif
  • similarité cosinus

C'est avec des indexes Postgres dans cet exemple. L'index HNSW est celui recommandé https://supabase.com/docs/guides/ai/vector-indexes/hnsw-indexes

GitHub - bmaltais/kohya_ss
thumbnail

Tout ce qu'il faut pour entraîner un LoRA depuis un set d'images.

Un LoRA est un sous modèle d'image qui permet de créer des images dans le même genre que ses images d'entraînement.

Intent to Ship: HTTPS Upgrades

Google Chrome essaye automatiquement toutes les requêtes en HTTPS et si jamais ça échoue alors il fallback sur HTTP.

Plus d'info https://github.com/dadrian/https-upgrade/blob/main/explainer.md

GitHub Next | Copilot Voice
thumbnail

Ça devait arriver, une version de Copilot qu'on pilote à la voix.

authelia/authelia: The Single Sign-On Multi-Factor portal for web apps
thumbnail

Une solution d'authentification Open Source pour applications web.

Authelia se positionne devant les applications en tant que reverse proxy pour ajouter une couche d'authentification.

LLM Papers | Olivier Cavadenti

Un fil d'actualité sur les derniers papiers à propos des LLM

Bun hype. How we learned nothing from Yarn
thumbnail

Un article critique sur Bun.

Pas mal de bashing un peu gratuit et de demi vérité:

  • performances: tout ce qui est lancé en local avec Bun est instant vs plusieurs secondes avec une stack Typescript standard
  • pas de version manager: Bun vient d'être release et il y a litéralement 3 versions donc pas vraiment besoin, be patient ^^
  • moins de backward compat que Node: en même temps on attends pas la même chose de Bun, et au moins les features sortent :)

Bref en tout cas je ne pense pas que Bun puisse un jour remplacer Node côté serveur car il y fallut plusieurs années pour que l'industrie fasse confiance à Node et que Node se montre suffisamment mature.

Par contre en local il n'y a rien à dire, bosser dans l'écosystème actuel c'est juste HORRIBLE entre les bundler, les builders, les compilers et les fichiers de config de la mort j'étais à la limite de craquer et heureusement Bun vient régler tout ça.

Pas de tsconfig.json, pas de webpack.config.js, pas de ts-node, pas de jest.
It just works ©

En plus bonus: c'est instantané de lancer un script ou de run +100 tests unitaires

GitHub Next | TestPilot
thumbnail

Un Agent LLM fait par Github qui génère les test unitaires de votre code

How to choose your vector database in 2023?
thumbnail

Un article qui compare différentes bases de données vectorielles pour stocker les embeddings des LLMs et faire de la recherche sémantique.

A noter que si vous avez déjà Postgres ou Elasticsearch, les deux proposent un mode vectoriel.

Les bases de données dédiées aux vecteurs comme Qdrant ou Pinecone ne sont vraiment intéressantes que pour des gros volumes (> 100 000 vecteurs)

Plus de 100 grands films à partager avec vos ados
thumbnail

Pleins de bon films ici :D

Meta reveals their serverless platform processing trillions of function calls a day
thumbnail

Retour d'expérience sur ce qui doit être le plus gros cluster Serverless du monde, celui de Meta (plus de 1 millions de d'exécutions/seconde en pic).

Ils ont développé une solution custom (XFaaS) et ils partagent les retours sur une utilisation massive du serverless.

La deuxième partie de l'article parle de la place de XFaaS dans l'architecture de Meta