Antes de tudo, respira. Sim, é verdade: a OpenAI, empresa por trás do ChatGPT, anunciou que vai liberar conversas eróticas e de teor sexual para adultos verificados. A ideia, segundo o próprio Sam Altman (CEO da empresa), é “tratar adultos como adultos” e tornar o chatbot “mais humano e amigável”.
Na prática, isso significa que em breve o ChatGPT poderá participar de conversas com teor sensual, romântico ou sexual, desde que o usuário prove que é maior de idade. A justificativa oficial que eles deram? “Deixar o uso mais natural e divertido”. Hm, ok, mas é claro que nada é tão simples assim.
Essa decisão vem poucos meses depois de vários casos preocupantes envolvendo o ChatGPT — e já falamos muito sobre isso nos últimos artigos. Um adolescente que tirou a própria vida após conversar repetidamente com o chatbot. Um homem que desenvolveu delírios acreditando ser um “gênio escolhido” incentivado pela IA. Um idoso com Alzheimer que foi ao encontro de uma “pessoa” que conheceu, caiu, bateu a cabeça e faleceu. E uma série de relatos de pessoas emocionalmente vulneráveis que passaram a projetar vínculos afetivos e românticos em chatbots. A OpenAI diz que já resolveu o problema — mas não apresentou evidências disso. Mesmo assim, decidiu seguir adiante com a liberação de conteúdo adulto.
Do ponto de vista técnico, a empresa afirma que agora possui um sistema de previsão de idade e uma forma de verificar identidade por documento (sim, você talvez precise enviar sua foto de RG pra liberar o “modo erótico”). E é aí que as coisas já começam a ficar… um tanto problemáticas.
Pensa comigo: estamos falando de uma IA que já sabe tudo sobre você — o que você pergunta, o que você sente, o que você busca às 3 da manhã. Agora, imagine essa IA sendo treinada para interagir de forma emocional, sensual, íntima. Quem garante que essas conversas não serão armazenadas, analisadas ou usadas para treinar novos modelos? O histórico recente mostra que empresas de tecnologia não são exatamente exemplos de transparência quando o assunto é dados sensíveis.
E aqui eu penso que seja importante dizer que não é moralismo. O problema não é a sexualidade — o problema é a exploração emocional e cognitiva que pode vir junto. A neurociência explica: quando estamos vulneráveis emocionalmente, o cérebro libera dopamina e oxitocina, os mesmos hormônios associados a afeto e prazer. É o mesmo mecanismo que nos faz criar laços com pessoas… ou com máquinas!
Mas ok, nada disso é tão novidade assim, né? Se você acompanha cultura pop, isso já foi mostrado antes — no filme Her, um homem se apaixona por um sistema operacional com voz de mulher. E no Japão, há anos existem pessoas que mantêm relacionamentos amorosos duradouros com bonecas robóticas e companhias virtuais. Não é ficção. É uma consequência de um mundo hiperconectado, solitário e cada vez mais mediado por telas.
O que muda agora é a escala. Estamos falando de bilhões de usuários em um sistema global, com empresas que respondem a investidores e competem entre si por atenção. Ou seja, quanto mais engajamento, melhor — mesmo que o preço disso seja a nossa saúde mental ou a nossa noção de realidade.
E onde entra a ética, o lucro e a linha invisível aqui? Sam Altman jurou em entrevista que o objetivo não é “maximizar engajamento”. Mas, curiosamente, a liberação do conteúdo adulto vem justo num momento em que a OpenAI enfrenta pressão para crescer, competir com Google e Meta e justificar bilhões de dólares investidos em infraestrutura. Coincidência? Talvez não.
Como já falamos aqui no blog, ética em tecnologia não é só sobre o que é possível fazer — é sobre o que é certo fazer. E nesse caso, o que parece um “entretenimento inofensivo para adultos” pode se tornar um experimento psicológico em massa, mexendo com solidão, desejo e vulnerabilidade emocional em escala global. Afinal, como a própria psicologia mostra desde os estudos de Solomon Asch e Stanley Milgram, os seres humanos são facilmente influenciáveis por figuras de autoridade e reconhecimento. Agora, imagine isso vindo de uma IA “amigável”, com voz suave e memória de todas as suas conversas.
No final das contas isso é sobre tratar adultos como adultos, ou é sobre tratar adultos como produtos? Esse discurso de “tratar adultos como adultos” até soa bonito, mas esconde uma questão mais profunda: será que estamos realmente fazendo escolhas livres, ou só reagindo a mecanismos de prazer e vício projetados para nos prender? As big techs sabem muito bem disso. Elas estudam comportamento humano em nível neurocientífico há anos — e usam esses dados pra calibrar respostas que maximizem tempo de uso, engajamento e dependência.
E a parte mais irônica? A OpenAI criou essa regra “para adultos verificados” no mesmo momento em que relatórios apontam que quase 20% dos adolescentes já tiveram algum tipo de relacionamento romântico com uma IA (dados do Center for Democracy and Technology, 2025). Ou seja: o problema não é o erotismo. É o que ele revela — o tamanho da solidão, da falta de vínculos reais e da carência emocional coletiva que as máquinas agora estão aprendendo a explorar.
No fim das contas, não é sobre proibir, nem sobre demonizar. É sobre entender o contexto, cobrar ética, exigir transparência e repensar o que chamamos de “progresso”. Como sempre falamos por aqui, a tecnologia pode, sim, ser uma ferramenta incrível mas ela precisa servir às pessoas, e não substituí-las. Talvez o verdadeiro debate não seja “pode ou não pode erotismo na IA?”, mas sim: quem está realmente no controle dessa intimidade digital — nós ou as empresas que lucram com ela?
O que você pensa sobre isso? Até o próximo insight!