A peine croyable mais pourtant vrai
Le rapport trimestriel de Cloudflare sur les attaques DDOS.
Ils notent une recrudescence des botnet VPS vs botnet IoT, ce qui permet des attaques encore plus massive (ils "detiennent" le record de l'attaque subie avec 71 millions req/s)
Le nombre de Ransom DDOS augmente également (demande de rançon sinon les infrastructures sont DDOS)
Half-Life Alyx est maintenant disponible sans la VR grâce au travail de la communauté.
C'est quand même toujours impressionnant de voir à quel point les fans peuvent investir du temps pour améliorer/créer des jeux vidéos.
Le meilleur exemple dans l'univers HL reste Black Mesa Source qui est une réécriture complète de Half-Life 1 en utilisant le moteur de Half-Life 2.
Une pratique qui ressemble à SOLID mais avec des règles un peu dogmatiques et assez strictes:
- One level of indentation per method
- Don’t use the ELSE keyword
- Wrap all primitives and Strings
- First class collections
- One dot per line
- Don’t abbreviate
- Keep all entities small
- No classes with more than two instance variables
- No getters/setters/properties
C'est intéressant de remettre en question son code par rapport à ces règles mais attention à ne pas tomber dans un dogme aveugle non plus.
Tutoriel très complet pour Rust et complètement en français
Base de données des mots de passe par défaut des constructeurs de hardware
Un article qui explique les différences entre NVMe et SATA pour la connectique des disques dur.
La rapidité de NVMe s'explique entre autre par un accès direct du driver au CPU quand le driver AHCI (SATA) communique avec le SATA controller.
Il est possible d'ajouter un logo officiel dans sa zone DNS pour que les fournisseurs d'emails puissent l'afficher.
Cela s'appelle BIMI (Brand Indicators for Message Identification) et c'est une spécification poussée par les plus gros fournisseurs d'emails de la planête (Google, Yahoo, Sendgrid, Mailchimp, etc)
Chez Malt ça a permi d'améliorer le taux d'ouverture en passant de 40% à 60% !
Un éditeur no-code pour créer des applications Flutter.
C'est un mix entre un éditeur no-code et Figma avec un export possible du code source (Dart + Flutter).
Ça supporte un déploiement mobile (APK) mais aussi web!
Ça sera certainement pas à la hauteur d'un code écrit spécifiquement pour design l'interface mais honnêtement le fait que ce soit en Flutter me rassure car la complexité d'un layout Flutter est bien moindre qu'un layout fait en CSS/HTML donc je ne pense pas qu'on ait le même genre de bouse abjecte type Windev.
La grande épopée de l'informatique et du logiciel libre racontée par Ploum.
Un exemple pour compresser un input pour un LLM en utilisant un LLM.
Ici une simple phrase exprime un paragraphe entier:
RcS:skptic&rspctfl_cnstrctvCritic;IdeaPrpsl:frmbHnstCrtcsm
Le fait d'avoir open sourcé le code de l'algorithme de Twitter ne permet pas de répondre à toutes les questions comme "Quelles sont les personnalités mises en avant ?"
Par exemple un algorithme possédant 48 millions de paramètres est constamment mis à jour par Twitter pour pondérer l'affichage des tweets.
Typiquement l'analogie Tech serait de dire que twitter publie ses sources mais sans les données on est bien incapable de comprendre le fonctionnement actuel de l'algorithme.
Après le green-washing, le libre-washing ? (cc Sebsauvage)
Explication très clair du fonctionnement des modèles Transformer de type GPT.
Une vidéo explicative sur la méthode utilisée par les réseaux de neurones pour comprendre le langage.
Chaque mot est représenté par un vecteur à N dimensions (plusieurs centaines) et cela permet notamment d'intégrer la notion de mots similaires en terme de sens.
On utilise ensuite des réseaux récurrents pour comprendre le sens d'une phrase dans les tâches de classifications ou de traduction.
Pour les tâches de génération, la notion de mémoire est importante et d'autres types de réseaux peuvent être utilisés (LSTM ou GRU).
Mais c'est une nouvelle architecture appellée Transformer qui est utilisé par les modèles récents comme GPT.
Une vidéo extrèmement intéressante sur l'état d'esprit des personnes travaillant dans la finance (principalement la City de Londres)
C'est un résumé du travail d'un anthropologue qui a étudié les millieux financiers londoniens.
Il classe les gens qu'il a interviewé (+200) en 6 catégories:
- teeth shaker: ceux qui ont peur de perdre leur travail et leur niveau de vie, donc ils ferment les yeux sur ce qui ne va pas
- neutral: ceux qui voient les failles et les contrebalancent avec des bons côtés ou les évitent
- master of the universe: ceux qui considèrent que l'état des choses est normal car ils le méritent
- blinker: ceux qui se donnent à fond, s'oublient/s'isolent complètement dans leur travail et sont complètement deconnecté du reste du monde
- delirium: comme les blinkers mais avec des signes d'addictions (clairement les témoignages les plus dérangeants..)
- cold fish: ceux pour qui tout est transaction sans aucune considération éthique ou morale
Un autre son de cloche sur "l'avènements" des IA génératives.
Tout le bruit que l'on entend autour du "danger" et de la perte de jobs pourrait être un formidable coup de com' pour OpenAI.
Goldman Sachs a également fait une étude sur les emplois qui pourrait être remplacé par des IA génératives.
À elle seule, l’IA générative pourrait remplacer un quart des travailleurs actuels.
On y trouve les métiers suivants:
- développeur informatique
- journaliste
- assistant juridique
- analyste de marché
- enseignant
- analyste financier
- trader
- graphiste
- secrétaire
- comptable
- service client
Les métiers manuels sont bien sur les plus épargnés.
l’IA pourrait fortement augmenter la productivité mondiale. Au total, le PIB mondial annuel pourrait augmenter de 7% grâce à cette technologie !
Le risque est bien sur que cet accroissement de la productivité soit capté par une minorité et fasse grandir les inégalités.
Un excellent article qui j'avais lu à l'époque sur l'avènement des AGI (Artificial Général Intelligence) et ASI (Artificial Super intelligence)
Ça revient au goût du jour avec tout ce qu'il se passe actuellement autour des LLM comme GPT-4.
L'article explore les concepts d'AGI et d'ASI avec les probabilités d'apparition dans les prochaines années, la vitesse à laquelle pourrait aller la transition.
C'est surtout vertigineux d'essayer de réaliser la portée d'une ASI et la manière donc elle nous considérera.
Une histoire d'optimisation d'un cluster Elasticsearch.
Le problème chez Netflix venait d'une mauvaise allocation des shards des indices, tous les indices avaient le même nombre de shards et donc certains noeuds se retrouvent à héberger des shards contenant des millions de documents.
Leur stratégie a été de distribuer les documents non pas par type mais par date de création (time buckets) en utilisant des index template pour la création automatique et des alias pour la recherche (comme pour l'ingestion des logs donc).
Un article sur l'utilisation de React Context dans une app pour partager facilement des informations entre les composants plutôt que les passer dans les props.
L'utilisation est un peu complexe et s'apparente à de l'injection de dépendances.
On fournit les contextes en encapsulant l'application dans des balises donc attention à l'utilisation de plusieurs contextes qui s'encapsulent entre eux et réintroduisent du couplage.
// ContainerContext a besoin de LangContext
<LangContext.Provider value={translate}>
<ContainerContext.Provider value={findTasks}>
<TodoList/>
</ContainerContext.Provider>
</LangContext.Provider>