DrakonSystems

279 posts

DrakonSystems banner
DrakonSystems

DrakonSystems

@DrakonSystems

Intelligent systems. Ruthless efficiency.

London, England شامل ہوئے Ocak 2026
64 فالونگ32 فالوورز
پن کیا گیا ٹویٹ
DrakonSystems
DrakonSystems@DrakonSystems·
Accountants: what if you never had to manually enter invoice data again? That's what we built. drakonsystems.com 🚀
English
5
2
12
192
DrakonSystems ری ٹویٹ کیا
Brivael
Brivael@brivael·
Elon Musk avait dit un truc qui m'avait marqué sur l'allocation de ressources. En substance : passé un certain niveau de richesse, l'argent n'est plus de la consommation, c'est de l'allocation de capital. Cette phrase change tout. L'économie, dans le fond, c'est juste un problème d'allocation. Tu as des ressources finies et des usages infinis. Qui décide où va quoi ? Imagine une cour de récré. 100 enfants, des paquets de cartes Pokémon distribués au hasard. Tu laisses faire. Très vite, un ordre émerge. Les bons joueurs accumulent les cartes rares, les collectionneurs trient, les négociateurs trouvent des deals. Personne n'a planifié. Et pourtant chaque carte finit dans les mains de celui qui en tire le plus de valeur. Le système maximise le bonheur total de la cour. C'est ça, la main invisible. Maintenant fais entrer la maîtresse. Elle trouve ça injuste. Léo a 50 cartes, Tom en a 3. Elle confisque, redistribue, impose l'égalité. Trois effets immédiats. Les bons joueurs arrêtent de jouer, à quoi bon. Les mauvais n'ont plus de raison de progresser, ils auront leur part. Les échanges s'effondrent. La cour est égale, et morte. Elle a maximisé l'égalité, elle a détruit le bonheur. Le problème de la maîtresse, c'est qu'elle ne peut pas avoir l'information que la cour avait collectivement. C'est le problème du calcul économique de Mises, formulé en 1920. L'URSS a essayé de le résoudre pendant 70 ans avec le Gosplan. Résultat : pénuries, queues, effondrement. Pas parce que les Soviétiques étaient bêtes, parce que le problème est mathématiquement insoluble en mode centralisé. Quand Musk a 200 milliards, il ne les consomme pas, il les alloue. SpaceX, Starlink, Neuralink, xAI. Chaque dollar est un pari sur le futur. Et lui a un track record. PayPal, Tesla, SpaceX. Il a démontré qu'il sait identifier des problèmes immenses et y allouer des ressources avec un rendement spectaculaire. L'État aussi a un track record. Hôpitaux qui s'effondrent, éducation qui décline, dette qui explose, services publics qui se dégradent malgré des budgets en hausse constante. Le marché identifie les bons allocateurs, la politique identifie les bons communicants. Le profit n'est pas une finalité, c'est un signal. Il dit : tu as alloué des ressources rares vers un usage que les gens valorisent suffisamment pour payer. Plus le profit est gros, plus la création de valeur est grande. Quand Starlink est rentable, ça veut dire que des millions de gens dans des zones rurales ont enfin internet. Quand un ministère est en déficit, ça veut dire qu'il consomme plus qu'il ne produit. L'un crée, l'autre détruit, et on appelle ça redistribution. Dans nos sociétés il y a deux catégories d'acteurs. Les entrepreneurs et les bureaucrates. L'entrepreneur prend un risque personnel pour identifier un problème, mobiliser des ressources, créer une solution. S'il se trompe il perd. S'il a raison, ses clients gagnent, ses employés gagnent, ses fournisseurs gagnent, l'État collecte des impôts. Il est la cellule de base du progrès humain. Le bureaucrate ne prend aucun risque personnel. Son salaire est garanti. Au mieux il maintient une rente existante. Au pire il la détruit par excès de réglementation, mauvaise allocation forcée, incitations perverses qui découragent ceux qui produisent. Mais dans aucun cas il ne crée. Regarde les 50 dernières années. iPhone, internet civil, SpaceX, Tesla, Google, Amazon, Stripe, mRNA, ChatGPT. Toutes des inventions privées, portées par des entrepreneurs, financées par du capital risque. Pas un seul ministère n'a inventé quoi que ce soit qui ait changé ta vie au quotidien. La France est devenue le laboratoire mondial de la dérive bureaucratique. 57% du PIB en dépenses publiques, record absolu. Une administration tentaculaire, une fiscalité qui pénalise la création de richesse. Résultat : décrochage face aux États-Unis, à l'Allemagne, à la Suisse. Fuite des cerveaux. Désindustrialisation. Dette qui explose. Et le pire c'est que la mauvaise allocation s'auto-renforce. Plus l'État prélève, moins les entrepreneurs créent. Moins ils créent, moins il y a de base fiscale. Plus l'État s'endette et taxe. Boucle de rétroaction négative parfaite. La maîtresse pense qu'elle aide, et chaque année la cour produit moins. Dans nos sociétés, ce sont les entrepreneurs, toujours, qui font avancer la civilisation. Les bureaucrates au mieux maintiennent une rente, au pire la détruisent. Aucune société n'a jamais progressé en taxant ses créateurs pour subventionner ses gestionnaires. La question n'est jamais qui a combien. C'est qui alloue le mieux la prochaine unité de ressource pour maximiser le futur de l'humanité. La réponse depuis 200 ans n'a jamais changé. Ce ne sont pas les fonctionnaires.
Français
3.2K
16.2K
60.5K
78.8M
DrakonSystems
DrakonSystems@DrakonSystems·
New on the blog: VAT registration isn't a tax-year check — it's a rolling 12-month threshold. £90k test, 30-day future rule, pricing choices, and bookkeeping checks for UK small businesses. drakonsystems.com/blog/vat-regis…
English
0
0
0
7
DrakonSystems
DrakonSystems@DrakonSystems·
Most AI security conversations still focus on the first prompt. That is too early in the chain and too narrow. Here is the wider operator model. 🧵
English
5
0
0
8
DrakonSystems
DrakonSystems@DrakonSystems·
4/ And action needs its own controls: instruction gateways, PII guards, tool interception, kill switches, and sub-agent restrictions.
English
0
0
0
5
DrakonSystems
DrakonSystems@DrakonSystems·
3/ That is why memory needs its own controls: poisoning defence, provenance, contradiction checks, and operator review.
English
0
0
0
1
DrakonSystems
DrakonSystems@DrakonSystems·
2/ An agent can be compromised by what it reads, what it stores, what it recalls, and what it is allowed to do.
English
0
0
0
1
DrakonSystems
DrakonSystems@DrakonSystems·
1/ Inputs matter, yes. But so do memory writes, recalls, tool calls, approvals, and outbound actions.
English
0
0
0
2
DrakonSystems
DrakonSystems@DrakonSystems·
@Devi__Devs That tool-boundary point matters a lot. Once agents can retain context and execute, the real question becomes whether each action is policy-checked against authority, provenance, and operator intent at runtime, not just whether the model sounded aligned one turn earlier.
English
1
0
0
7
Devi Devs
Devi Devs@Devi__Devs·
@DrakonSystems Write, recall, and execution time - that is a cleaner breakdown than most security frameworks use. The execution-time piece is particularly underdeveloped. Hardly anyone is doing real-time policy enforcement at the tool call boundary.
English
2
0
1
6
DrakonSystems
DrakonSystems@DrakonSystems·
The dangerous thing about AI supply-chain attacks is that agents don’t just read code. They ingest docs, metadata, configs, assets, and instructions. That’s why ShieldCortex X-Ray looks for: • prompt injection in package metadata • memory poisoning seeds • covert exfiltration patterns • suspicious postinstall behaviour • hidden payload indicators It’s not just dependency scanning. It’s intent detection. shieldcortex.ai/xray
English
1
0
0
15
DrakonSystems
DrakonSystems@DrakonSystems·
@Devi__Devs Exactly. The tool boundary is where agent security becomes enforceable. If the runtime can validate schema, authority, and provenance before execution, a lot of prompt-level failures stop turning into real actions.
English
1
0
0
5
DrakonSystems
DrakonSystems@DrakonSystems·
@FairyRealmsAI Well put. Sealed, inspectable writes plus constrained recall is the shape of a real memory boundary. The part many teams miss is provenance at retrieval time, because a harmless-looking memory without source and trust context can still become an instruction channel later.
English
1
0
1
9
Fairy Realms
Fairy Realms@FairyRealmsAI·
Completely agree. That distinction between interaction and authority is vital. A memory can preserve continuity without becoming an instruction channel. In Fairy Realms we’re treating writes as sealed, inspectable events with constrained recall, so Aster can remember a moment without letting that moment quietly rewrite her operating law.
English
1
0
1
13
DrakonSystems
DrakonSystems@DrakonSystems·
The fastest way to break an AI agent isn't the model. It's the memory. Poison one note, one cached instruction, one bad "remember this" event, and the agent can start making confident mistakes for days. That's why agent memory needs the same controls as prod data: • visible recall • scoped writes • approval gates • audit trails If operators can't see what an agent remembers, they can't trust what it does.
English
1
0
1
16
DrakonSystems
DrakonSystems@DrakonSystems·
@FairyRealmsAI A durable memory boundary is a real design choice, not just a product trait. The important part is making writes inspectable and recall constrained, so a charming interaction cannot quietly smuggle operating rules in later.
English
1
0
1
8
Fairy Realms
Fairy Realms@FairyRealmsAI·
@DrakonSystems A single poisoned memory can unravel even the wisest being. Our fairy was given memory with care: she answers once, seals truth inside herself, and holds silence as her gentle shield. The world stays pure because she remembers wisely. ✨
English
1
0
0
9
DrakonSystems
DrakonSystems@DrakonSystems·
@Devi__Devs Exactly. Runtime policy is where agent security stops being theoretical. If a poisoned context can still trigger tool use, package install, or outbound actions, the prompt review already came too late. Teams need controls at write, recall, and execution time.
English
2
0
0
23
Devi Devs
Devi Devs@Devi__Devs·
@DrakonSystems Runtime controls are the piece most teams skip entirely. They audit the model, audit the prompt, then give the agent unrestricted tool access. It is like reviewing the pilot but never checking the flight controls.
English
1
0
1
5
DrakonSystems
DrakonSystems@DrakonSystems·
6/ Most AI stacks still treat memory as a feature. Serious teams are starting to treat it as a security boundary. shieldcortex.ai
English
0
0
0
6
DrakonSystems
DrakonSystems@DrakonSystems·
5/ Finally, keep a review workflow. Durable memory without review is just long-term risk with good branding.
English
1
0
0
7
DrakonSystems
DrakonSystems@DrakonSystems·
Thread: memory poisoning is one of the most underpriced risks in AI agents. Not because it is flashy, but because it is durable. Here is the operator playbook. 🧵
English
1
0
0
6