Un modèle d'IA capable de prédire l'évolution de séries temporelles.
Il a été entraîné sur 100 milliards de points de différentes séries, météo, IoT, finance, etc
Un SaaS qui permet de fine tune différents LLMs
Microsoft annonce développer des micro processeurs (Neural Processing Unit, NPU) dédiés aux algorithme des IA génératives, un peu comme les cartes graphiques sont normalement dédiées au calcul sur les images.
Le but est de permettre l'utilisation de ces algorithme directement depuis l'ordinateur personnel des utilisateurs de Windows.
ça rappel les TPU (Tensor Processing Unit) de Google pour les solutions cloud et Tensorflow https://cloud.google.com/tpu
Microsoft peut se permettre de perdre autant d'argent maintenant si c'est pour s'assurer la suprématie dans 5 ans quand le coût des technos aura diminué.
En attendant, aucune startup ne peut les concurrencer, voir aucune autre boite vu le fric qu'à Microsoft.
Facebook se lance dans la course au développement assisté par IA avec un prototype de recherche autour de la correction de bugs!
Un article sur différentes techniques pour réduire les hallucinations des LLMs
Un repo Github qui résume les derniers articles à propos des LLM
Un outil no-code pour construire des applications LLM
Mistral annonce son premier modèle en Open Source (Apache 2.0) et ils annoncent des performances supérieures à LlaMa 2 7B!
C'est le premier LLM 100% européen
Un papier scientifique qui résume les différentes méthodes de raisonnement avec les LLM.
Un test de Visual Question Answering (VQA) avec GPT-4 et le modèle est très bon!
Une marketplace ou l'on peut trouver des Agents disponibles pour toute sortes de tâches: SEO, chatbot, revenue manager, adword, etc
Une technologie qui permettrait d'accèlérer l'entrainement des modèles d'IA et aussi d'en réduire les coûts.
Carrefour pousse pour l'adoption de la GenAI en interne, que ce soit au niveau des équipes avec des milliers de collaborateurs formés à ChatGPT ou sur des projets comme le chatbot Hopla.
Incroyable les amélioration apportées à DALL-E 3 autant au niveau de la qualité qu'au niveau du prompt engineering!
Clairement ils ont rattrapé le retard sur leurs concurrents (StableDiffusion et Midjourney) mais surtout ils ont maintenant une longueur d'avance sur ce qui fonctionnait le moins bien: le prompt engineering
Quelques statistiques sur l'utilisation de Copilot:
- 30% des suggestions sont acceptées
- tâches effectuées 50% plus vite
- 46% du code total écrit par Copilot
- 75% des développeurs sont satisfait
- 1500 milliards de plus au PIB global du à la productivité supplémentaire
Une IA générative qui génère du son depuis un prompt.
ça rend super bien, ils sont capable de générer des musiques entières avec des paroles et un genre précis genre "Upbeat EDM"
Connecting Large Language Models with Evolutionary Algorithms Yields Powerful Prompt Optimizers
https://arxiv.org/pdf/2309.08532.pdf
Large Language Models as Optimizers
https://arxiv.org/abs/2309.03409
Improving prompt for document summarization using Chain of Density prompting
https://arxiv.org/pdf/2309.04269.pdf
Vercel a développé un super outil pour comparer les résultats des prompts entre plusieurs LLM!
Ils supportent quasiment tout, des modèles GPT à LlaMa 2 et même Claude 2.
Retour d'expérience sur le développement de Github Copilot et donc d'une véritable application LLM en prod depuis plusieurs années et avec un trafic conséquent