Une API de Text-to-Speech avec une latence très basse (300ms).
Ça veut dire que l'on peut envoyer du texte en streaming et recevoir de l'audio en streaming en pluguant GPT4 directement sur Turbo par exemple.
C'est la porte ouvertes aux conversations quasi temps réel (reste encore le Speech-to-Text et surtout l'envoi du prompt à GPT4 qu'il ne sera pas possible de streamer par contre)
Une technique pour wrapper les handler API dégueulasses forcés par l'utilisation de Express en quelque chose d'un peu plus moderne.
Next.js encore sur Express en 2023 :(
Une explication de fonctionnement des opérations sur les vecteurs (embedding LLM)
- distance euclidienne
- produit intérieur négatif
- similarité cosinus
C'est avec des indexes Postgres dans cet exemple. L'index HNSW est celui recommandé https://supabase.com/docs/guides/ai/vector-indexes/hnsw-indexes
Des exemples de prompt pour faire du Tree of Thought
Un Agent LLM fait par Github qui génère les test unitaires de votre code
Un article qui compare différentes bases de données vectorielles pour stocker les embeddings des LLMs et faire de la recherche sémantique.
A noter que si vous avez déjà Postgres ou Elasticsearch, les deux proposent un mode vectoriel.
Les bases de données dédiées aux vecteurs comme Qdrant ou Pinecone ne sont vraiment intéressantes que pour des gros volumes (> 100 000 vecteurs)
Tout ce qu'il faut pour entraîner un LoRA depuis un set d'images.
Un LoRA est un sous modèle d'image qui permet de créer des images dans le même genre que ses images d'entraînement.
Un framework RAG qui est déjà connecté à pleins d'outils et les synchronise dans des bases de données vectorielles.
Google Chrome essaye automatiquement toutes les requêtes en HTTPS et si jamais ça échoue alors il fallback sur HTTP.
Plus d'info https://github.com/dadrian/https-upgrade/blob/main/explainer.md
Pleins de bon films ici :D
Ça devait arriver, une version de Copilot qu'on pilote à la voix.
Une série d'articles pour améliorer la vitesse de chargement des pages web.
Retour d'expérience sur ce qui doit être le plus gros cluster Serverless du monde, celui de Meta (plus de 1 millions de d'exécutions/seconde en pic).
Ils ont développé une solution custom (XFaaS) et ils partagent les retours sur une utilisation massive du serverless.
La deuxième partie de l'article parle de la place de XFaaS dans l'architecture de Meta
Une solution d'authentification Open Source pour applications web.
Authelia se positionne devant les applications en tant que reverse proxy pour ajouter une couche d'authentification.
Une méthode de résolution de tâche qui s'apparente à un Graph Of Though (GOT) et qui permet d'améliorer la qualité d'une réponse à une question.
Ce qu'ils appellent module pourrait se traduire par Agent LLM.
La question est d'abord analysée par un Agent "Branch" qui va générer des angles d'évaluation de la pertinence d'une future réponse.
Ensuite dans l'Agent "Solve", on fait répondre à la question par le LLM (on génère plusieurs réponses: A, B, C, etc) et on va ensuite faire générer un feedback sur les réponses en fonction des critères de chaque branche.
Finalement c'est l'Agent "Merge" qui va s'occuper de récupérer les feedback sur les réponses puis il va décider quelle réponse était la mieux entre A, B et C.
Excellent article sur l'évolution des rôles dans une scaleup.
ça revient sur les définitions des rôles CTO vs VP Engineering et aussi sur le rôle de Fellow Engineer.
Dans une scaleup, le CTO historique doit parfois laisser la place pour se concentrer sur des missions de contributeur individuel à fort impact.
Un musée de l'histoire d'internet :D
- premier mail de spam
- premier smiley
- premier MP3
- et bien d'autres!
Le mouvement no-estimate prend de plus en plus d'ampleur dans le monde du Produit.
D'un côté les équipes de développements fonctionnement mal avec des estimations:
- imprévisibilité inhérente au développement
- stress de ne pas avoir respecter une estimation
- pas ou peu de temps consacrer aux tâches annexes d'amélioration continue
De l'autre côté, les équipes Sales, Marketing et Customer Success ont besoin de fournir des dates à leurs clients.
L'estimation peut éventuellement se faire mais à un niveau plus haut comme l'Epic si tout le monde accepte que cette estimation pourra quand même changer en cours de route.
Au fur et à mesure du développement, l'estimation devient de plus en plus précise jusqu'à la livraison de la feature.
Je garde ces deux citations:
Les estimations sont le “doudou” des managers avec leur côté rassurant. Elles donnent une sensation de contrôle.
Je ne compte pas le nombre d’heures passées dans ma carrière à discuter d’estimations
Comment mesurer la répartition des connaissances au sein d'une équipe à l'aide de Skills Matrices.
Très utile pour identifier les bus factors sur lesquels une ou très peu de personnes seraient capable d'intervenir.
L'article donne une méthode pour créer cette liste de connaissances.
Retour d'expérience sur l'organisation Data chez Blablacar.
Ils ont créé une équipe Data transverse avec uniquement des Data Enginers.
Quelques take aways:
-
investir dans des solutions génériques et réutilisables paye sur le moyen/long term
-
il y a un intérêt à ce que l'équipe Data devienne le point central entre tous les stackholders
-
rechercher l'adoption plutôt que l'obligation
-
toujours considérer le "build vs buy"