PLP DINAMARCA
8.9K posts

PLP DINAMARCA
@PLPDinamarca
Partido Liberal Pesimista - Sede Dinamarca. Mi voto es Ezeiza 🛫




🚀 | ARTEMIS II: En la misión, los 4 astronautas viajarán a 400,000 km de la Tierra, que sería a lo más lejos que el ser humano haya llegado en toda la humanidad.








No nos terminamos de recomponer de la fiesta sexual con fentanilo por parte de residentes y anestecistas del Italiano, que ahora tenemos una fiesta de rugbiers y jugadoras de hockey que terminó con falopa y abusos en Bella Vista.




"Escándalo en el rugby" Porque rugbiers "le pincharon los vasos" a chicas de hockey "para que entreguen" en un tercer tiempo en un club de Bella Vista y hay denuncias por abusos: circulan fotos y audios de WhatsApp donde denuncian que le pusieron "miel loca".













Miliband is caving into Reform pressure to approve drilling that he knows won't lower bills. The solution for permanently lower bills is to go all out on renewables, not dance to the tune of fossil fuel lobbyists and their friends in politics.


America can send humans to the moon but the same people can’t be trusted not to eat pizza boxes?




Gemma 4 26B MoE (4B active) on a single RTX 4090: - 162 t/s decode - 8,400 t/s prefill - Full 262K native context — 19.5 GB VRAM - Only 10 Elo below the 31B dense Q8_0 on dual 4090+3090: 9,024 t/s prefill at 10K. 2,537 t/s at full 262K — that's a novel in about 100 seconds. Q4_K_M + q8_0 K / turbo3 V using @no_stp_on_snek 's TurboQuant fork (github.com/TheTom/turboqu…). KV quant saves 1.8 GB, costs nothing. 3.7x faster decode than the dense. Single 4090 (262K): llama-server -m gemma-4-26B-A4B-it-UD-Q4_K_M.gguf -c 262144 -np 1 -ctk q8_0 -ctv turbo3 -fa on --fit off --cache-ram 0 -dev CUDA0 Dual GPU (Q8_0, 262K): llama-server -m gemma-4-26B-A4B-it-Q8_0.gguf -c 262144 -np 1 -fa on --fit off --cache-ram 0 llama.cpp b8635 + turboquant fork #Gemma4 #LocalLLM #llama_cpp #TurboQuant #RTX4090 #MoE #AI #OpenSource #GGUF #LocalAI









