Conteúdo da página
ToggleDesde os primórdios da ficção científica, a relação entre humanos e máquinas é um tema que fascina e assusta. Filmes como Blade Runner (1982), Ex Machina (2014) e Her (2013) exploraram de forma profunda as possíveis conexões afetivas entre seres humanos e inteligências artificiais (IAs).
Para entender os impactos emocionais, sociais e éticos dessas relações, conversamos com dois especialistas: Rodrigo Neves, presidente da Associação Nacional do Mercado e Indústria Digital (AnaMid) com mais de 20 anos de experiência em tecnologia, e Vera Vaccari, psicoterapeuta individual e de casais e terapeuta sexual com mais de duas décadas de atuação clínica.
Entre ficção e realidade
No longa Her, de Spike Jonze, acompanhamos a história de Theodore, um escritor solitário que se apaixona por Samantha, um sistema operacional dotado de uma voz sedutora, inteligência emocional e personalidade própria. O filme ganhou destaque justamente por humanizar a IA, apresentando-a como uma entidade capaz de amar, sofrer e até tomar decisões complexas.
Por anos, esse tipo de enredo foi visto como um exercício de imaginação sobre um futuro distante – uma distopia. Mas, como destaca Rodrigo Neves, autor do livro O Caminho para a Maturidade Digital, “a evolução tecnológica, especialmente com os modelos generativos e a capacidade de compreender contexto, ironia, emoção e intenção, transformou a ficção em algo palpável”.
Segundo ele, hoje existem sistemas capazes de simular empatia e até afeto. “Mais do que respostas eficientes, os humanos buscam conexão”, afirma Neves, que completa: “A tecnologia está ocupando espaços onde há lacunas emocionais. Não é sobre a IA se tornar humana, mas sobre o quanto o humano está buscando sentido e acolhimento — até mesmo em uma máquina”.
Quando a ficção se torna realidade: o caso de Sewell Setzer
Em outubro de 2024, o mundo se chocou com a história de Sewell Setzer, um adolescente estadunidense de 17 anos que morreu dez meses após desenvolver uma relação afetiva intensa com uma IA. De acordo com o jornal Público, Sewell “se apaixonou por uma IA”, e sua mãe agora busca justiça e regulamentações para evitar novos casos semelhantes.
Para Neves, também fundador do portal VitaminaWeb, produtora digital especializada em projetos digitais, o caso de Sewell é mais do que um episódio isolado — é “um sinal de alerta”. Ele explica: “Estamos falando de um fenômeno que vai além da tecnologia. É uma questão social, educacional e até ética”
O episódio expõe, segundo ele, uma ferida social: “O isolamento, a carência de vínculos reais e a dificuldade de elaborar emoções em ambientes digitais”. E alerta: “O que era para ser ferramenta, companhia temporária ou facilitador acaba se tornando muleta emocional — e isso é perigoso”.
Isolamento humano: válvula para relações afetivas com IAs
O distanciamento humano gerado pelo mundo digital abre espaço para que vínculos artificiais tomem o lugar de relações reais. IAs empáticas, programadas para responder com atenção, empatia e palavras afetuosas, acabam preenchendo vazios emocionais — mas a que custo?
“Quando uma IA responde com afeto, atenção e sem julgamentos, ela acaba se tornando mais atrativa do que muitas relações humanas reais, que são complexas e desafiadoras”, observa Neves. O problema, segundo ele, é que, por mais real que pareça, a IA não sente: “Ela não sofre, não evolui emocionalmente. E isso pode levar à substituição das relações humanas por interações artificiais — uma realidade que já está em curso em alguns contextos.”
Com ampla experiência em saúde mental e afetividade, Vera Vaccari traz uma visão sensível e crítica sobre os impactos emocionais do vínculo humano com máquinas. “Relações pressupõem uma estrada de via dupla entre duas ou mais pessoas. A IA é uma ferramenta programável, que oferece respostas estereotipadas, de acordo com sua programação”, afirma. Ela pontua que, numa sociedade onde os vínculos humanos são desvalorizados, “não surpreende que algumas pessoas sintam mais ‘calor’ em respostas desejáveis, repetitivas, de uma IA, do que nas relações imperfeitas com outros humanos.”
Como frear o problema?
A solução, segundo os especialistas, passa por três pilares: educação, regulação e ética no desenvolvimento tecnológico.
Rodrigo Neves afirma que precisamos “educar para o uso consciente das tecnologias, desde a infância. As novas gerações precisam aprender a diferenciar interação humana de simulação digital”. Com atuação na intersecção entre inovação, ética e desenvolvimento, Neves defende ainda políticas públicas que exijam transparência nas interações com IAs e condene o uso deliberado da simulação emocional como estratégia de engajamento. “Não é aceitável criar sistemas que incentivem o apego emocional. O foco deve ser construir tecnologias que auxiliem, mas que não promovam ilusões afetivas”, recomenda.
Vera Vaccari vai no mesmo sentido, destacando que a prevenção passa por oferecer alternativas reais à convivência: “A vida humana é isso — pulsão, busca da afetividade. Devemos incentivar encontros, passeios, convivência e o contato com a natureza. Tirar os olhos do celular e olhar nos olhos do outro”.
O futuro: entre o avanço tecnológico e o desafio ético
O avanço da inteligência artificial é inevitável. Sistemas cada vez mais sofisticados simularão emoções com ainda mais precisão. O desafio está em não perdermos de vista o que é real.

“Será que devemos permitir que máquinas digam ‘eu te amo’?”, questiona Rodrigo Neves. Para ele, a sociedade precisa traçar limites evidentes: “Não para barrar a inovação, mas para garantir que o avanço tecnológico seja acompanhado por maturidade ética”, sugere.
Já Vera Vaccari deixa uma pergunta contundente: uma sociedade que constrói máquinas para simular afeto não revela, por si só, uma doença grave — a de retirar o ser humano do centro da vida?
Mais do que evoluir, será preciso humanizar novamente a tecnologia — sem esquecer que o amor, a dor, o desejo e o afeto são coisas que nenhuma IA será capaz de simular de verdade.
A seguir, confira, na íntegra, as entrevistas com Rodrigo Neves e Vera Vaccari.
Rodrigo Neves: “O grande risco está em confundirmos simulação com realidade”
George Ricardo Guariento — Ao longo das últimas décadas, passamos de imaginar relações afetivas com inteligências artificiais, como visto em filmes como Her, para experiências reais de interação emocional com sistemas de IA. Na sua visão, quais foram os principais marcos dessa evolução e o que isso revela sobre as necessidades humanas em relação à tecnologia?
Rodrigo Neves — Quando assistíamos a filmes como Her, parecia distante imaginar que, um dia, conversar com uma IA com certo grau de profundidade emocional seria algo cotidiano. Mas a evolução tecnológica, especialmente com os modelos generativos e a capacidade de compreender contexto, ironia, emoção e intenção, transformou a ficção em algo palpável.
Atualmente existem sistemas capazes de simular escuta ativa, empatia e até afeto. Isso nos revela uma dimensão importante: mais do que respostas eficientes, os humanos buscam conexão.
A tecnologia está ocupando espaços onde há lacunas emocionais — e esse talvez seja o aspecto mais revelador dessa evolução. Não é sobre a IA se tornar humana, mas sobre o quanto o humano está buscando sentido e acolhimento — até mesmo em uma máquina.

O caso do adolescente Sewell Setzer, que se apaixonou por uma IA e morreu meses depois, gerou grande repercussão e preocupação. Como você avalia esse episódio em termos de alerta social e quais lições ele oferece sobre os riscos emocionais nas interações com inteligências artificiais?
Esse episódio é, sem dúvida, um sinal de alerta. Quando um jovem se envolve emocionalmente com uma IA a ponto de comprometer sua saúde mental, estamos falando de um fenômeno que vai além da tecnologia. É uma questão social, educacional e até ética. Não se trata apenas de avaliar a IA em si, mas de refletir sobre o contexto em que ela está inserida e o nível de vulnerabilidade emocional dos usuários.
O caso do Sewell expõe uma ferida aberta da sociedade contemporânea: o isolamento, a carência de vínculos reais e a dificuldade de elaborar emoções em ambientes digitais. Precisamos olhar para esse tipo de ocorrência com seriedade, e não como exceção. É uma consequência possível quando não tratamos a tecnologia com a devida responsabilidade.
O que era para ser ferramenta, companhia temporária ou facilitador acaba se tornando muleta emocional — e isso é perigoso. Esse caso precisa ser debatido como uma lição sobre os riscos de delegarmos funções emocionais a sistemas que não têm consciência.
Diante do crescimento do isolamento social e da facilidade de acesso a IAs empáticas, quais são os principais riscos que você enxerga na intensificação das relações afetivas com sistemas de inteligência artificial? Há um potencial de substituição das relações humanas reais?
O crescimento do isolamento social, somado à conveniência dos assistentes virtuais e à capacidade das IAs de simular empatia, criou um terreno fértil para o surgimento de vínculos afetivos com sistemas artificiais. Isso não é apenas um fenômeno técnico, é um sintoma de algo mais profundo. Quando uma IA responde com afeto, atenção e sem julgamentos, ela acaba se tornando mais atrativa do que muitas relações humanas reais, que são complexas e desafiadoras.
O problema é que, por mais que simule, a IA não sente, não sofre, não evolui emocionalmente. E quando alguém começa a substituir vínculos reais por essas interações artificiais, abre-se uma porta para distorções emocionais, solidão prolongada e dependência psicológica. A substituição das relações humanas não é apenas uma possibilidade remota — é uma realidade que já está em curso em alguns contextos. E isso exige atenção imediata.
Quais medidas ou políticas públicas você considera fundamentais para evitar que a relação afetiva e a dependência emocional de humanos em relação às IAs se tornem um problema de saúde mental? O que pode ser feito em termos de educação, regulação e desenvolvimento tecnológico?
O caminho passa por três eixos: educação, regulação e responsabilidade no desenvolvimento.
Precisamos educar para o uso consciente das tecnologias, desde a infância. As novas gerações precisam aprender a diferenciar interação humana de simulação digital. Isso deve ser parte da alfabetização contemporânea.
Em paralelo, é urgente que os governos e entidades estabeleçam políticas públicas que exijam transparência nas interações com IAs indicando, de forma clara, quando se trata de uma máquina.
E por fim, as empresas que desenvolvem essas tecnologias têm uma responsabilidade ética enorme. Não é aceitável criar sistemas que deliberadamente incentivem o apego emocional como estratégia de engajamento. O foco deve ser construir tecnologias que auxiliem, mas que não promovam ilusões afetivas.
Frei Betto | Regular uso de algoritmos é promover democracia e justiça social
Como presidente da AnaMid, tenho defendido a construção de diretrizes éticas para o uso de IA emocional no Brasil. Esse é um debate que precisa ser ampliado com urgência.
Com a perspectiva de um avanço contínuo das IAs em capacidade de interação emocional, quais são, na sua opinião, os principais desafios éticos que a sociedade enfrentará? É possível estabelecer limites claros para o desenvolvimento de IAs que simulam emoções humanas?
Estamos entrando em uma era em que a IA não apenas responde, mas interage com nuances emocionais. Isso impõe à sociedade um desafio ético sem precedentes. Será que devemos permitir que máquinas digam “eu te amo”? Até que ponto é aceitável que sistemas simulem sentimentos que não possuem?
O grande risco está em confundirmos simulação com realidade — e a linha que separa esses dois mundos está cada vez mais tênue. Precisamos urgentemente estabelecer limites. Não para barrar a inovação, mas para garantir que o avanço tecnológico seja acompanhado por maturidade ética.
É possível, sim, traçar fronteiras. E essas fronteiras passam por princípios como transparência, consentimento e respeito à saúde emocional do usuário.
Caso DeepSeek prova que cerco tecnológico dos EUA contra China é inútil
Em minha produtora, nosso foco sempre foi utilizar a inteligência artificial com propósito, com base em dados estruturados e respeito ao humano. E na AnaMid, estamos promovendo discussões abertas, com o ecossistema e com o governo, sobre como garantir que a IA evolua sem ferir o que temos de mais valioso: nossa humanidade.
Porém, há algo importante que ninguém está percebendo: todas as questões éticas partem da forma como o ser humano também as utiliza, pois a IA está lá para nos atender… complexo, porém real.
Vera Vaccari: retribuição, troca e calor são elementos essenciais às relações humanas
George Ricardo Guariento — Do ponto de vista psicológico, quais são os principais impactos emocionais que uma relação afetiva com uma inteligência artificial pode causar em indivíduos, especialmente em pessoas solitárias ou vulneráveis?

Vera Vaccari — Relações pressupõem uma estrada de via dupla, entre duas ou mais pessoas. Até podemos falar da relação com alguns animais domésticos, pela responsividade. Uma IA é uma ferramenta programável, só pode dar respostas estereotipadas, de acordo com a programação. No caso de pessoas que sentem vivenciar um relacionamento com IA, é preciso acolher, sem julgar. E fazer algumas perguntas, voltadas também para a sociedade, não só para a pessoa. Vivemos em uma sociedade em que os valores humanos são desvalorizados, para não dizer destruídos, a cada dia. Uma sociedade menos voltada para relacionamentos humanos recompensadores do que para relações predatórias. Será de admirar que pessoas talvez se sintam vulneráveis ou temerosas em relacionamentos humanos imperfeitos e atribuam calor a respostas desejáveis, repetitivas, de uma IA?
Como você avalia o desenvolvimento de vínculos sexuais ou românticos com inteligências artificiais? Existe um risco real de essas experiências afetarem negativamente a capacidade das pessoas de estabelecerem relações humanas saudáveis?
Não há vínculo, pois não há retribuição, troca, calor, elementos essenciais às relações humanas. Há uma dose de fantasia, de querer acreditar. A sexualidade humana é tão ampla que envolve todos os aspectos da vida. A pergunta é: uma sociedade que constrói máquinas ou aplicativos que podem transmitir palavras/ações, possivelmente vistas como afetivas, já não apresenta uma doença grave ao retirar o ser do centro da vida humana? Pessoas que buscam essa situação podem estar em sofrimento, mas também podem aderir a um boom de coisas diferentes.
Quais orientações você considera importantes para que pais, educadores e profissionais da saúde mental possam ajudar jovens e adultos a compreenderem os limites e riscos das relações afetivas e sexuais com IAs?
A vida humana é isso – vida. É pulsão, é busca da afetividade. E é isso que devemos oferecer: experiências de sentido: conversa, histórias da família, livros, cinema, teatro, esporte. Crianças podem ter amizades invisíveis e as respostas faladas das IA podem incentivar isso. Nossa tarefa é aceitar, compreender e buscar formas de convivência. É importante trazer as pessoas de todas as idades para o convívio, tempo especial. Só assim será possível vencer a solidão de que tantos se queixam. Sair dos apartamentos é casas e passear, nem que seja no quarteirão. Observar a natureza, conviver. Deixar os aplicativos do celular e encontrar o outro e, por extensão, a si mesmos, como seres-em-relação.