Un article qui montre l'empreinte en équivalent CO2 des choses du quotidien en comparant à échelles comparables.
Le comité ISO a terminé de travailler sur la norme SQL 2023.
Au programme quelques améliorations du langage (qui étaient déjà supportées dans de nombreuses DB comme Postgres par exemple) mais surtout l'introduction du support du JSON et des graphes.
Par exemple les chemins seront simplement accessible avec des "."
// {"foo": {"bar": [100, 200, 300]}, ...}
SELECT t.j.foo.bar[2], ... FROM table ...
Product Owner ou Product Manager, au final ce sont des postes semblables dont le but est de conduire les développements produit à un apport de valeur.
Un style de licensing intéressant chez CockroachDB:
- licence Business Source License (type Server Side Public Licence) avec interdiction de faire un SaaS
- Apache 2 après 3 ans
Cela permet de rentabiliser leur business tout en offrant la totalité du produit en Apache 2 après une certaine période.
Une liste d'outils OSINT et comment s'en servir
Excellent outil multiplateforme pour prendre des screenshots et les modifier.
Le CIO n'a vraiment aucune race
Ces volontaires travailleraient entre huit et dix heures par jour, six jours sur sept, non rémunéré·es, et sans prise en charge de leurs frais de transport ou d’hébergement
Surtout que le CIO croûle sous le fric des annonceurs
Rémunérer au SMIC horaire toutes ces personnes reviendrait pourtant à moins de 1 % du budget total des JOP (évalué actuellement à 8 milliards d’euros)
Basta conseille de s'inscrire puis de ne pas y aller
Un article qui parle de la complexité élevé des fichiers de configuration Kubernetes et propose un niveau d'abstraction plus simple à comprendre et à manipuler.
Une autre vidéo de Science Étonnante pour comprendre le fonctionnement des LLM (Large Language Model) comme GPT et leur spécialisation dans des outils comme ChatGPT.
Voir aussi Comment les I.A. font-elles pour comprendre notre langue ?
Les LLM commencent à arriver dans les navigateur en utilisant la technologie WebGPU.
Ils ont aussi porté StableDiffusion https://mlc.ai/web-stable-diffusion/
Un nouveau type de base de données qui émerge avec l'IA: la base de données vectorielle
En IA, on représente les données du monde réel sous la forme de vecteurs à N dimensions. Concrètement ce sont des tableaux de nombres à virgules.
Ce genre de base de donnée permet ensuite de rechercher plus efficacement des vecteurs qui sont proches par exemple.
Un exemple de recherche de contexte similaire lors d'une question posée à GPT3 https://docs.pinecone.io/docs/gen-qa-openai
Une amélioration du mode headless dans Chrome.
Avant cette mise à jour (112), le mode headless était enfaite un autre programme et avait donc un fonctionnement légèrement différent de chrome.
Auto-GPT utilise un LLM et est capable de:
- récupérer des informations sur internet
- conserver des informations en mémoire
- générer sa propre liste de tâche pour répondre à une question
Ça permet d'avoir des agents capable d'améliorer leurs réponses et de réfléchir à des tâches plus complexes.
Pleins d'exemples ici https://twitter.com/NathanLands/status/1646101184384573446?s=20
Un site français pour acheter des objets scientifique
Qu’une élite dirigeante ferme toute fenêtre démocratique en dehors du cadre électoral, et exige de nous allégeance et silence pendant l’exercice du mandat, voilà qui devrait être de nature à nous inquiéter.
Un Tetris directement dans votre terminal :D
bash <(curl https://raw.githubusercontent.com/dkorolev/bash-tetris/master/tetris.sh)
Une méthode pour ajouter un watermark sur le texte généré par un LLM.
Ça permet de s'assurer qu'un modèle n'est pas utilisé de manière frauduleuse par exemple.
C'est utilisé par HuggingFace par exemple https://github.com/huggingface/text-generation-inference
Un moteur de connaissance backé par un LLM (surement OpenAI) mais qui en plus cite les sources.
Très utile pour débroussailler des sujets de dev lorsqu'on est en phase de recherche / prototypage et qu'on a besoin de comprendre des technos
Explications très détaillées sur le compilateur Just In Time (JIT) introduit dans PHP 8.
Concrètement ça améliore la vitesse d'exécution de votre code au fur et à mesure que celui-ci est executé en compilant spécifiquement en code machine (assembleur) certaines function qui sont appellés toujours avec les mêmes types.
C'est le même principe que le JIT dans la JVM ou v8.
je ne suis pas sûr que vous obteniez des améliorations aussi bonnes mais ça ouvre la porte à d'autres types d'applications boudés par souci de performances, comme l'IA, le jeu vidéo, les statistiques..
Par contre ça m'étonnerait qu'on se mette à faire de l'IA, du jeu vidéo ou n'importe quoi d'autre qui demande des performances avec PHP car le JIT reste quand même bien moins optimisé qu'une compilation Ahead Of Time (C++, Rust, Golang, etc)