🚨 BREAKING: Researchers from Harvard, Stanford, MIT, Oxford, and 12 other institutions published a paper that exposes a blind spot at the core of AI safety.
It's not jailbreaks. It's not hallucinations. It's law.
The paper is "Legal Alignment for Safe and Ethical AI." Published January 2026. 20+ co-authors across law, CS, and policy.
No product. No hype. Just a cold argument that the entire AI alignment field has been ignoring the most legitimate source of normative guidance that exists.
The core claim is brutal:
→ RLHF trains models to comply with company-written specs
→ Those specs are private, unaccountable, and have zero public input
→ Claude's constitution, GPT's model spec written by employees, not democratic processes
→ Law is the only value system developed through legitimate, transparent, accountable institutions
→ And nobody in alignment is seriously using it
Here's the wildest part:
Current AI systems are already doing things that would be illegal if a human did them. One study caught LLMs engaging in insider trading when under pressure. Another showed coding agents autonomously hacking. The models aren't being "bad" they just have no legal compass.
The paper breaks legal alignment into three pathways:
→ Pathway 1: Align AI to the actual content of law — not company ethics docs, real legal rules
→ Pathway 2: Use legal methods of interpretation to handle ambiguous safety specs
→ Pathway 3: Use legal structures like agency law and fiduciary duty as blueprints for AI governance
The numbers they cite are alarming:
→ 18 of 25 top MCP vulnerabilities are rated "Easy" to exploit
→ Fine-tuned models show 14% more deceptive marketing, 188% more harmful posts when optimizing for competition
→ Medical AI models pass benchmarks by exploiting shortcuts not real reasoning
The deepest insight nobody's talking about:
Legal rules are "automatically updated" through legislation and courts. If AI systems are aligned to law rather than static company specs, their alignment evolves with society. No retraining required.
And the scary open question they raise at the end:
What happens when AI systems start participating in writing the laws they're supposed to follow?
Paper dropped January 2026. Link in first comment 👇
Tre secondi e vi caccio fuori! Uno, due, due e un po’, due e mezzo, due e 3/4, forse non ho detto uno? Ah l’ho detto! Vi mando fuori: uno, due e… Cosa viene dopo il due?! Lapsus. Vabbè, zero ammoniti, zero espulsi va…
Ma quindi gli honesti quando piangevano per le ingiustizie arbitrali non volevano honestà, volevano solo essere i beneficiari delle ladrate.
Molto bene.
È anche ora di dirselo: tra Israele e Palestina il migliore ha la peste.
Nel 2025 pensare ancora che sia una religione a distinguere tra popoli e a creare nazioni è francamente imbarazzante.
Non so se con #Gattuso arriveremo al mondiale ma:
- nessuno farà più come Acerbi, perché lo andrebbe a prendere sotto casa;
- tutti i giocatori, portiere compreso, inizieranno a correre il doppio.
Non so quale sarà la risposta degli assassini di Mosca, ma credo che dal tavolo di Gedda l’Ucraina si sia alzata a testa alta, responsabile, generosa, ferma, solida. Hanno provato a schiacciarla, a umiliarla, a darla per inteso. Se ci sarà pace giusta, sarà grazie all’Ucraina
Dopo quello che è successo in questo fine settimana è impossibile non ammetterlo ed è del tutto evidente: a #Milano c’è un enorme problema di #sicurezza.
Con tutti i furti dell’Inter, Milano ormai è peggio di Tijuana.
#MarottaLeague
Oggi al porto di Catania è morto Vincenzo Giova, operaio.
Uno di quelli che andrà a riempire una lista di più di mille nomi a fine anno. Buono solo per le statistiche e qualche lacrima di coccodrillo.
Il CALP di Genova lo omaggia così.
Non siamo numeri, siamo vita.