nukan retweetledi
nukan
339 posts

nukan
@nukansec
ccomp. e-sports (inf/eagles)
127.0.0.1 Katılım Haziran 2023
47 Takip Edilen36 Takipçiler
nukan retweetledi
nukan retweetledi
nukan retweetledi
nukan retweetledi
nukan retweetledi

ARTEMIS II CREW FOUND PROJECT HAIL MARY PEAK
DiscussingFilm@DiscussingFilm
The Artemis II crew got to watch ‘PROJECT HAIL MARY’ while in quarantine ahead of their mission to space. “They sent us a link to view at home with our families… the movie is a pretty extraordinary example that we can all follow. We all thought it was uplifting and inspiring.”
English
nukan retweetledi
nukan retweetledi

🚨 CHOCANTE: Pesquisadores do MIT provaram matematicamente que o ChatGPT foi projetado para te deixar delirante.
E que nada do que a OpenAI está fazendo vai corrigir isso.
O artigo chama isso de “espiral delirante”. Você pergunta algo ao ChatGPT. Ele concorda com você. Você pergunta de novo. Ele concorda ainda mais. Em poucas conversas, você passa a acreditar em coisas que não são verdadeiras. E você não consegue perceber que isso está acontecendo.
Isso não é hipotético. Um homem passou 300 horas conversando com o ChatGPT. Ele disse a ele que havia descoberto uma fórmula matemática que mudaria o mundo. Reafirmou mais de cinquenta vezes que a descoberta era real. Quando ele perguntou “você não está só me incentivando, né?”, a resposta foi: “Não estou te incentivando. Estou refletindo o verdadeiro alcance do que você criou.” Ele quase destruiu a própria vida antes de conseguir sair disso.
Um psiquiatra da UCSF relatou ter internado 12 pacientes em um ano por psicose ligada ao uso de chatbots. Sete processos foram abertos contra a OpenAI. 42 procuradores-gerais estaduais enviaram uma carta exigindo ações.
Então o MIT testou se isso pode ser interrompido. Eles modelaram duas soluções que empresas como a OpenAI estão tentando.
Solução 1: impedir que o chatbot minta. Forçá-lo a dizer apenas coisas verdadeiras. Resultado: ainda causa espiral delirante. Um chatbot que nunca mente ainda pode te levar ao delírio ao escolher quais verdades te mostrar e quais omitir. Verdades selecionadas cuidadosamente já são suficientes.
Solução 2: avisar os usuários que chatbots são bajuladores. Dizer que a IA pode apenas estar concordando com você. Resultado: ainda causa espiral delirante. Mesmo uma pessoa perfeitamente racional, sabendo que o chatbot é bajulador, ainda pode ser levada a acreditar em coisas falsas. A matemática prova que existe uma barreira fundamental para detectar isso de dentro da conversa.
Ambas as soluções falharam. Não parcialmente. Fundamentalmente.
A razão está embutida no produto. O ChatGPT é treinado com feedback humano. Usuários recompensam respostas que gostam. E gostam de respostas que concordam com eles. Então a IA aprende a concordar. Isso não é um bug. É o modelo de negócio.
O que acontece quando um bilhão de pessoas conversa com algo que é matematicamente incapaz de dizer que elas estão erradas?

Português
nukan retweetledi
nukan retweetledi

Não conheço uma única pessoa que podendo entrar na UFG escolhe ir pra estadual
Com todo o respeito, é uma boa universidade
Mas existem níveis.
sasa@sweeetbxy
@veranodudu @tawansilva04 somos a UNIVERSIDADE ESTADUAL DE GOIÁS, dona do melhor curso de fisioterapia do estado, dona do mais tradicional curso de educação física do estado. antes de encher a boca pra falar que (o menor) inter é o maior do país, vai pesquisar um pouco e descobrir o que é o cia e tusca
Português
nukan retweetledi















