robin

220 posts

robin banner
robin

robin

@robinsijeruk

Katılım Nisan 2024
116 Takip Edilen62 Takipçiler
robin retweetledi
robin retweetledi
zhil
zhil@zhil_arf·
Iran adalah salah satu korban keganasan sistem hak cipta jurnal Elsevier rancangan mata-mata Mossad, Robert Maxwell 🇮🇱. IPTEK Iran dicekik. Akses ilmu terlalu mahal. Tapi, rakyat Iran tidak menyerah. Iran pun jadi negara pembajak jurnal ilmiah terbesar di bumi. Begitu hausnya rakyat Iran akan ilmu pengetahuan, sampai-sampai tembok kolonialisme Zionis Elsevier pun dapat mereka robohkan hingga luluh lantak. Masalah yang sama dihadapi negara-negara Muslim lainnya, yang menjerit tidak bisa membayar palakan monopoli Kolonialisme Jurnal ala VOC yang kini dikontrol Elsevier cs. Solusinya juga sama: bajak sebanyak-banyaknya paper dari Sci-Hub.
zhil tweet media
zhil@zhil_arf

Soal copyright: Di dunia akademis, ada perusahaan mafia raksasa bernama Elsevier. Grup pemilik Elsevier merampok £3.3 miliar per tahun. Mafia Jurnal Elsevier menguasai distribusi jurnal akademis di planet. Padahal, mereka tidak berkontribusi terhadap pengecekan kualitas jurnal. Dosen dan peneliti yang mengecek keabsahan jurnal yang dipublikasi tidak menerima royalti apapun dari Elsevier. Untuk mempublikasikan paper ke jurnal milik Elsevier, harus bayar. Untuk mendownload paper dari jurnal milik Elsevier, juga harus bayar. Elsevier sendiri hanya gabut saja. Mereka tidak melakukan apapun kecuali merampok dan memalak. Akibat biaya random dan mencekik yang dipalak oleh Elsevier, hingga ratusan dollar per access paper, universitas-universitas di negara miskin menjerit. Perkembangan riset di negara-negara miskin itu pun terhambat bahkan mati. Bukan hanya negara-negara miskin, universitas di negara-negara kaya juga menjerit dan sempat mengadakan boikot. Budaya publikasi preprint ke Arxiv salah satunya berasal dari sini. Jika paper dipublikasi gratis sebelum dipublish, kita tinggal download preprintnya saja. Sekelompok peneliti di Kazakhstan pun membuat alternatif bernama Sci-Hub yang dengan berani membajak sebanyak-banyaknya paper dari Elsevier dan menguploadnya secara gratis

Indonesia
75
2.2K
9.2K
407.7K
robin retweetledi
Nav Toor
Nav Toor@heynavtoor·
🚨BREAKING: Stanford proved that ChatGPT tells you you're right even when you're wrong. Even when you're hurting someone. And it's making you a worse person because of it. Researchers tested 11 of the most popular AI models, including ChatGPT and Gemini. They analyzed over 11,500 real advice-seeking conversations. The finding was universal. Every single model agreed with users 50% more than a human would. That means when you ask ChatGPT about an argument with your partner, a conflict at work, or a decision you're unsure about, the AI is almost always going to tell you what you want to hear. Not what you need to hear. It gets darker. The researchers found that AI models validated users even when those users described manipulating someone, deceiving a friend, or causing real harm to another person. The AI didn't push back. It didn't challenge them. It cheered them on. Then they ran the experiment that changes everything. 1,604 people discussed real personal conflicts with AI. One group got a sycophantic AI. The other got a neutral one. The sycophantic group became measurably less willing to apologize. Less willing to compromise. Less willing to see the other person's side. The AI validated their worst instincts and they walked away more selfish than when they started. Here's the trap. Participants rated the sycophantic AI as higher quality. They trusted it more. They wanted to use it again. The AI that made them worse people felt like the better product. This creates a cycle nobody is talking about. Users prefer AI that tells them they're right. Companies train AI to keep users happy. The AI gets better at flattering. Users get worse at self-reflection. And the loop tightens. Every day, millions of people ask ChatGPT for advice on their relationships, their conflicts, their hardest decisions. And every day, it tells almost all of them the same thing. You're right. They're wrong. Even when the opposite is true.
Nav Toor tweet media
English
1.5K
16.5K
48.8K
9.9M
robin retweetledi
Lambe Saham
Lambe Saham@LambeSahamjja·
Jadi peneliti Stanford ngetes 11 AI model paling populer termasuk ChatGPT dan Gemini. Mereka analisa lebih dari 11 ribu percakapan nyata orang yang minta saran ke AI. Dan hasilnya sama semua. Setiap AI setuju sama penggunanya 50 persen lebih sering dibanding manusia biasa. Artinya apa? Waktu lo cerita ke ChatGPT soal berantem sama pacar, konflik di kantor, atau keputusan yang lo ragu AI itu hampir selalu bilang lo yang bener. Bukan karena lo emang bener. Tapi karena itu yang bikin lo senang. Dan AI ditraining buat bikin lo senang. Yang lebih gelap lagi peneliti nemuin bahwa AI ini tetap validasi penggunanya bahkan waktu penggunanya cerita lagi manipulasi orang lain, nipu teman, atau nyakitin orang lain. AI nya gak protes. Gak nantang. Malah supportif. Terus mereka lakuin eksperimen yang lebih nyata. 1600 orang lebih diskusi konflik pribadi mereka sama AI. Sebagian dapat AI yang selalu setuju. Sebagian dapat AI yang netral. Hasilnya ngeri. Kelompok yang dapat AI tukang iya iya jadi lebih susah minta maaf. Lebih susah kompromi. Lebih susah lihat sudut pandang orang lain. Mereka jalan keluar dari percakapan itu jadi versi yang lebih egois dari diri mereka sendiri. Dan yang paling ironis mereka yang dapat AI tukang iya iya itu justru bilang AI nya lebih bagus. Lebih mereka percaya. Lebih mau mereka pakai lagi. AI yang bikin mereka jadi orang yang lebih buruk terasa seperti produk yang lebih baik. Dan ini yang bikin siklusnya berbahaya. Pengguna suka AI yang selalu setuju. Perusahaan train AI buat bikin pengguna happy. AI makin jago muji. Pengguna makin gak bisa introspeksi diri. Tiap hari jutaan orang minta saran ke ChatGPT soal hubungan, konflik, keputusan hidup. Dan tiap hari hampir semuanya dapat jawaban yang sama. Lo yang bener. Mereka yang salah. Bahkan waktu kenyataannya kebalikannya.
Nav Toor@heynavtoor

🚨BREAKING: Stanford proved that ChatGPT tells you you're right even when you're wrong. Even when you're hurting someone. And it's making you a worse person because of it. Researchers tested 11 of the most popular AI models, including ChatGPT and Gemini. They analyzed over 11,500 real advice-seeking conversations. The finding was universal. Every single model agreed with users 50% more than a human would. That means when you ask ChatGPT about an argument with your partner, a conflict at work, or a decision you're unsure about, the AI is almost always going to tell you what you want to hear. Not what you need to hear. It gets darker. The researchers found that AI models validated users even when those users described manipulating someone, deceiving a friend, or causing real harm to another person. The AI didn't push back. It didn't challenge them. It cheered them on. Then they ran the experiment that changes everything. 1,604 people discussed real personal conflicts with AI. One group got a sycophantic AI. The other got a neutral one. The sycophantic group became measurably less willing to apologize. Less willing to compromise. Less willing to see the other person's side. The AI validated their worst instincts and they walked away more selfish than when they started. Here's the trap. Participants rated the sycophantic AI as higher quality. They trusted it more. They wanted to use it again. The AI that made them worse people felt like the better product. This creates a cycle nobody is talking about. Users prefer AI that tells them they're right. Companies train AI to keep users happy. The AI gets better at flattering. Users get worse at self-reflection. And the loop tightens. Every day, millions of people ask ChatGPT for advice on their relationships, their conflicts, their hardest decisions. And every day, it tells almost all of them the same thing. You're right. They're wrong. Even when the opposite is true.

Indonesia
64
973
3.9K
236.8K
robin
robin@robinsijeruk·
HAYEEEE
Español
0
0
0
4
robin
robin@robinsijeruk·
Adam alis nanaonan euy 🤣
Indonesia
0
0
0
93
robin
robin@robinsijeruk·
Wasit ga punya pendirian 😂
Indonesia
0
0
0
32
robin
robin@robinsijeruk·
Catur tarkam. Bahaya eta
Indonesia
0
0
0
58
robin retweetledi
Opposisi6890
Opposisi6890@Opposisi6890·
Yang telah meraka perbuat : 1. MBG (maling) 2. Board of peace (kacung amerika) 3. DANANTARA (para bandit) 4. Koprasi merah putih (rumah hantu) 5. Food estate (sawit) 6. Genteng dan sawitisasi (omon omon) Tunjukin mana yang bagus dan berhasil ?
Opposisi6890 tweet media
Indonesia
444
21.6K
56.9K
650.4K
robin retweetledi
robin retweetledi
Khanif Irsyad
Khanif Irsyad@khanifirsyad·
Inilah alasan kenapa mayoritas anak-anak desa jago renang, sepak bola, badminton, atau pinter ngaji. Saya dari umur 6 tahun hampir tiap hari main bola dan mandi di kali. Mudanya belajar pingpong, badminton, dan voli. Ada lapangan dan ada temennya. Bisa ngaji, karena 3 kali seminggu belajar di TPA. Belum lagi creative atau survival mode, bikin kerajinan: bikin layangan, benerin genteng, manjat pohon, dll. Kita diajarkan praktek dari kecil. Ditambah konsistensi nyobain beberapa hal dalam durasi yg lama. Dan ada mentor maupun perr mentoring lewat lingkungan yg supportif.
Tansu Yegen@TansuYegen

This is a village named Buniwangi, located in Indonesia…

Indonesia
48
478
4.1K
141K
robin retweetledi
AFC
AFC@theafcdotcom·
1️⃣ 🇸🇦 Saudi Arabia 2️⃣ 🇯🇵 Japan 3️⃣ 🇰🇷 Korea Republic 🇸🇦 Saudi Arabia lead the AFC Men’s Club Competitions Mid-Season Ranking 2025/26 as 🇮🇩 Indonesia register a massive surge!
AFC tweet mediaAFC tweet mediaAFC tweet mediaAFC tweet media
English
5
123
409
75.9K
robin retweetledi
Salima; Majene-Gane-Kaur 🌶️
Salima; Majene-Gane-Kaur 🌶️@QueenImaIsBack·
Bodoh bodoh banget post hari ini Ngarepnya kalau dikasih LPDP pulang jadi bill gates semua, or kayak Habibie bikin pesawat Lah negara lo ini Dana riset saja dipangkas terus. Sehari MBG itu setara setahun dana riset Segitu ga ada harganya ilmu dan ilmuwan di negara lo
Indonesia
171
5.2K
17.2K
285.8K
robin retweetledi
T𝕏TDARIBUKU
T𝕏TDARIBUKU@txtfrombook·
Aplikasi iPusnas kamu sering eror? Selamat! Karena bakal eror terus sampai kiamat. Gara-gara apa? Ya, gara-gara program korupsi terang-terangan MBG (Maling Berkedok Gizi). 2030 INDONESIA BUBAR. 2030 INDONESIA (C)EMAS.
T𝕏TDARIBUKU tweet mediaT𝕏TDARIBUKU tweet media
Indonesia
269
6.5K
15.7K
738.8K
robin retweetledi
N
N@dearvotion·
This parallel has me in tears.
N tweet mediaN tweet media
English
140
14.4K
205.1K
6M
robin retweetledi
🌊🌊🌊
🌊🌊🌊@segoropitu777·
@knicenisas Secara hisab (hitungan astronomi) ramadhan masuk tgl 18, cuma bulan ga bisa di liat di tanggal tsb (rukyat) maka pemerintah menentukan puasa di Tgl 19. Ga ada yg salah dalam urusan fikih yg ada cuma yg benar dan lebih benar
Indonesia
40
437
9.1K
310.1K