Edd
2.7K posts

Edd
@Doc_bzh
for personal records only, extremely inaccurate



Je découvre ce matin que SpaceX a verrouillé une option d'achat sur Cursor à 60 milliards de dollars, exerçable d'ici fin 2026, et que s'il ne l'exerce pas il paie quand même 10 milliards pour la coopération technique. Dans la même séquence, Business Insider révèle que xAI est en discussion triangulaire avec Mistral et Cursor pour monter un pôle IA capable de concurrencer OpenAI et Anthropic. Cette séquence dit beaucoup de l'état réel du marché. Musk n'a pas de modèle qui tient la corde sur le coding, il le sait, ses ingénieurs le lui disent, et il a lâché à plusieurs reprises qu'il s'inquiétait de l'avance d'Anthropic sur les agents. Sa réponse n'est pas de rattraper tout seul, c'est d'acheter la meilleure interface de développement du marché et de faire entrer Mistral par la porte de derrière. On rappelle que Devendra Chaplot, cofondateur de Mistral, a rejoint xAI le mois dernier pour diriger le pretraining. Ce n'est pas un hasard de calendrier. Ironie de l'histoire... Pendant que Macron tape sur l'épaule de Mistral en répétant que c'est le champion souverain de l'IA européenne, et que la justice française convoque Musk dans le cadre de son enquête sur X, son poulain pourrait être en train de signer un accord stratégique avec xAI. Autrement dit, l'État attaque le type d'un côté, et la pépite qu'il finance à coups de communiqués discute business avec lui de l'autre. Soit l'Élysée ne lit pas ses propres dossiers, soit on assume que le récit officiel et la réalité vivent dans deux dimensions parallèles.















.@vonderleyen "The European #AgeVerification app is technically ready. It respects the highest privacy standards in the world. It's open-source, so anyone can check the code..." I did. It didn't take long to find what looks like a serious #privacy issue. The app goes to great lengths to protect the AV data AFTER collection (is_over_18: true is AES-GCM'd); it does so pretty well. But, the source image used to collect that data is written to disk without encryption and not deleted correctly. For NFC biometric data: It pulls DG2 and writes a lossless PNG to the filesystem. It's only deleted on success. If it fails for any reason (user clicks back, scan fails & retries, app crashes etc), the full biometric image remains on the device in cache. This is protected with CE keys at the Android level, but the app makes no attempt to encrypt/protect them. For selfie pictures: Different scenario. These images are written to external storage in lossless PNG format, but they're never deleted. Not a cache... long-term storage. These are protected with DE keys at the Android level, but again, the app makes no attempt to encrypt/protect them. This is akin to taking a picture of your passport/government ID using the camera app and keeping it just in case. You can encrypt data taken from it until you're blue in the face... leaving the original image on disk is crazy & unnecessary. From a #GDPR standpoint: Biometric data collected is special category data. If there's no lawful basis to retain it after processing, that's potentially a material breach. youtube.com/watch?v=4VRRri…



















