Pet Cheetah

4.9K posts

Pet Cheetah banner
Pet Cheetah

Pet Cheetah

@Ichithebasser

Musician, coffee lover, huligán¹. ¹: Népi köznyelvben aki nem balfaszul vezet gyökkettővel.

Budapest, Magyarország เข้าร่วม Haziran 2019
818 กำลังติดตาม453 ผู้ติดตาม
Pet Cheetah
Pet Cheetah@Ichithebasser·
Sokat gondolkodom rajta, hogy a szakmáim hogyan lehetne kombinálni. Avagy internetkávézó vagymi
Magyar
0
2
9
248
Pet Cheetah
Pet Cheetah@Ichithebasser·
A teljességhez hozzátartozik, hogy kaptam már abbéli instrukciót IT head-of-tól, hogy adatmentés címén cseréljek megfingott SSD-n nand chipet.🫡
Magyar
0
0
4
64
kira 👾
kira 👾@kirawontmiss·
-
kira 👾 tweet media
ZXX
82
1.3K
32.8K
340.3K
Pet Cheetah
Pet Cheetah@Ichithebasser·
@SculkSidian @kirawontmiss I know you wanted to be funny, but if we see food as electricity + other resources in the case of AI…. You are far from being right.
English
3
0
4
331
Pet Cheetah รีทวีตแล้ว
Ádám
Ádám@criticaledgehun·
Ez jó lett. Főleg a vége. 🤣
Magyar
9
30
378
11.1K
Karthik
Karthik@karthikponna19·
startup idea: sim card slots on laptops so you never depend on wifi again
Karthik tweet media
English
1.2K
281
9.1K
12.9M
Pet Cheetah
Pet Cheetah@Ichithebasser·
@BawbyDoe Én dolgoztam Mekiben. Pontos ott is az elszámolás. Mind a készletek, mind a pénz, mind pedig a folyamatok tisztességes betartása szigorúan volt fwlügyelve mindig. Szerintem oda ne jelentkezzenek.
Magyar
0
0
1
32
Bawby
Bawby@BawbyDoe·
Bawby tweet media
ZXX
1
0
16
247
Trombitás Kristóf
Trombitás Kristóf@mauripartizan·
64 vs. 35 az Alapjogokért Központ mandátumbecslése így néz ki
Trombitás Kristóf tweet media
Magyar
79
17
184
8.5K
Pet Cheetah รีทวีตแล้ว
🙂🙏 Özv. Dízelné Hadházy Aranka, 1.8T
Tájékoztatásul közlöm, hogy a piratebayen elérhető tartalmak nem tökéletes és pontos másai az eredeti Blu-ray lemezeknek, hiszen veszteséges tömörítésen estek át előtte. További szerzői jogokkal kapcsolatos tippekért és trükkökért fordulatok Sam Altman bácsihoz.
Simplifying AI@simplifyinAI

🚨 BREAKING: OpenAI and Google are about to have a massive legal problem. OpenAI, Google, and Anthropic have repeatedly sworn to courts that their models do not store exact copies of copyrighted books. They claim their "safety training" prevents regurgitation. Researchers just dropped a paper called "Alignment Whack-a-Mole" that proves otherwise. They didn't use complex jailbreaks or malicious prompts. They just took GPT-4o, Gemini, and DeepSeek, and fine-tuned them on a normal, benign task: expanding plot summaries into full text. The safety guardrails instantly collapsed. Without ever seeing the actual book text in the prompt, the models started spitting out exact, verbatim copies of copyrighted books. Up to 90% of entire novels, word-for-word. Continuous passages exceeding 460 words at a time. But here is the part that changes everything. They fine-tuned a model exclusively on Haruki Murakami novels. It didn't just learn Murakami. It unlocked the verbatim text of over 30 completely unrelated authors across different genres. The AI wasn't learning the text during fine-tuning. The text was already permanently trapped inside its weights from pre-training. The fine-tuning just turned off the filter. It gets worse. They tested models from three completely different tech giants. All three had memorized the exact same books, in the exact same spots. A 90% overlap. It's a fundamental, industry-wide vulnerability. For years, AI companies have argued in court that their models are just "learning patterns," not storing raw data. This paper provides the smoking gun.

Magyar
1
1
9
456
Pet Cheetah
Pet Cheetah@Ichithebasser·
A transz láthatóság világnapján szeretném megjegyezni: -a transz férfiak férfiak -a transz nők nők -minden élet számít -a transzfóbok kiszophatnak, keressetek jobb elfoglaltságot, minthogy embertársaitokkal gecik vagytok!
★☭MassStrikeNow☭★@strike_dr

Magyar
0
0
4
181
KITKAT
KITKAT@KITKAT·
Help us find them. Use the Stolen KitKat Tracker. Link in bio.
KITKAT tweet media
English
6.2K
12.2K
116.2K
14M