Weekly Shaarli

All links of one week in a single page.

Week 50 (December 9, 2024)

Elon Musk wanted an OpenAI for-profit | OpenAI

OpenAI tire à balles réelles sur Elon Musk en publiant des échanges de mails et même des SMS.

unsloth: Finetune Llama 3.3, Mistral, Phi, Qwen 2.5 & Gemma LLMs 2-5x faster with 80% less memory
thumbnail

Unsloth est un framework de fine-tuning qui permet d'entrainer plus rapidement et avoir moins de mémoire des modèles Open Source.

Ils annoncent un gain jusqu'à x2 sur la vitesse d'entrainement !

Ça s'utilise en Python mais aussi directement dans un Notebook

Google introduces Gemini 2.0: A new AI model for the agentic era
thumbnail

Google annonce Gemini 2.0 Flash.

Niveau benchmark comme d'habitude il faut attendre que ça sorte sur Livebench pour avoir une meilleure comparaison mais quand même ils affichent de très bon résultats:

  • 89.7% sur MATH (76.6 GPT-4o)
  • 62.1% sur GPQA (59.4% Claude 3.5 Sonnet)
  • 35.1% sur LiveCodeBench (42% Claude 3.5 Sonnet, 67% o1-mini)

La big new c'est surtout la multi-modalité en entrée et en sortie du modèle qui est capable de générer un mix de texte, son et image pour répondre si besoin.

Google a vraiment rattrapé son retard, c'est cool de voir toutes ces améliorations.

Use our prompt improver to optimize your prompts - Anthropic

Anthropic propose un optimisateur de prompt.

Pendant son entrainement, Claude a été optimisé sur certains patterns comme l'utilisation de balises XML pour organiser le contenu et ces patterns peuvent améliorer la performance des prompts.