Un article qui parle de la complexité des systèmes actuels de machine learning
Whoa Docker lâche un pavé dans la marre, c'est la fin des organisations open source qui publient leurs images sur Docker Hub. (ou alors il faut payer 420$/an)
Github est une solution de remplacement.. Jusqu'au jour où ils feront aussi payer !
EDIT: Docker a depuis fait marche arrière
Un article de Replicate sur l'état des outils tech pour faire du machine learning.
If you wanted to build a website 20 years ago it felt like trying to use machine learning today.
C'est vrai qu'avant Stable Diffusion, tous les outils pour générer des images étaient impossibles à utiliser par le commun des mortels et même pour les initiés.
Pour faciliter l'utilisation des modèles, ils ont créé Cog qui est une sorte de Docker pour le ML.
Ça réglera pas les problèmes de configuration de GPU mais au moins ça permet de packager et d'utiliser simplement des modèles 👍
Des centaines de ressources pour apprendre tout ce qu'il y a à savoir sur:
- Docker
- Docker Compose
- Kubernetes
(Via Ocav)
Un outil open source pour gérer ses secrets en remplacement de Hashicorp Vault ou autre.
Il y a un backend et un frontend complet pour créer des projets et ajouter des secrets.
Ensuite une clé d'API est générée pour récupérer ces secrets depuis une application.
Ils ont déjà des intégrations automatiques avec la plupart des framework mais aussi directement Docker, Kubernetes, Github Actions et des cloud type Heroku, Vercal.
Par contre ils sont toujours en alpha donc à voir
Les bons conseils pour créer une image de prod avec Node.js.
En bref:
- Utilisez une version LTS avec Debian slim pour réduire la surface d'attaque
- Ne faites pas de
npm install
maisnpm ci
pour utiliser un ensemble de dépendances stable - Évitez les images alpines car des problèmes peuvent apparaître à ce musl (substitut de la libc)
😄
Des images Docker preconfigurés pour utiliser Jupyter Notebook.