
De assistentes a companheiros: a evolução emocional das IA
A inteligência artificial percorreu um longo caminho: de simples assistentes digitais, começa agora a ocupar um lugar mais próximo de companheiros emocionais nas nossas vidas. As pessoas já não pedem apenas à IA para informar a previsão do tempo ou agendar um compromisso, mas, em vez disso, envolvem-se em conversas profundas, procuram conforto e até desenvolvem laços emocionais com estas tecnologias. Este fenómeno é possível graças aos avanços na inteligência artificial emocional, que permite às máquinas reconhecer e simular as emoções humanas, e também pela nossa tendência humana para antropomorfizar a tecnologia, ou seja, atribuir-lhe qualidades humanas.Neste blogue, iremos explorar como a IA está a aprender a sentir (ou pelo menos a imitar sentimentos), como as pessoas estão a formar laços emocionais com chatbots, assistentes virtuais e robôs sociais, e as implicações éticas desta nova relação entre humanos e máquinas.
A inteligência artificial é cada vez mais emocional
Um dos maiores passos em direção a IAs mais “humanas” é ensiná-las a reconhecer as nossas emoções. Tradicionalmente, isto tem sido tentado através da deteção de expressões faciais, tom de voz ou linguagem corporal.Por exemplo, foi recentemente revelada a existência de Hume, uma IA conversacional concebida para compreender as expressões emocionais no discurso e detetar em tempo real se o seu interlocutor está triste, preocupado, entusiasmado ou angustiado.Este tipo de avanço permite uma interação mais natural: a máquina ajusta as suas respostas com base no nosso estado de espírito, oferecendo um tratamento mais empático ou personalizado.
No entanto, a deteção emocional não se limita à leitura de rostos ou vozes. Em 2023, os cientistas demonstraram um sistema capaz de revelar emoções internas utilizando sinais sem fios, como ondas de rádio (semelhantes ao Wi-Fi), para medir a respiração e o ritmo cardíaco de uma pessoa.Isto significa que, no futuro, o seu assistente poderá sentir se está ansioso ou calmo, mesmo sem o ver, bastando para isso analisar o seu batimento cardíaco à distância — um avanço tecnológico tão revolucionário quanto controverso.Estes desenvolvimentos pertencem ao campo da computação afetiva, que procura permitir que as máquinas interpretem e respondam às nossas emoções para uma comunicação mais autêntica.
Por outro lado, as IA não detetam apenas emoções: podem também simular respostas emocionais. Os chatbots modernos e os modelos de linguagem avançados (como o ChatGPT) estão programados para soar empáticos. Por exemplo, se o utilizador escrever que teve um mau dia, o bot pode responder com frases de apoio e um tom simpático. Grandes modelos de linguagem treinados em milhões de conversas humanas aprenderam os padrões de empatia: sabem que palavras usar para soar reconfortantes ou alegres, dependendo da situação. Isso significa que “sentem” alguma coisa? De forma alguma. Na realidade, estas IA não têm emoções próprias, mas imitam emoções, como a empatia.A sua “preocupação” por nós é análoga à prestação de um ator: representam um guião emocional. Um professor especialista em IA emocional explica desta forma: “Uma IA pode detetar tristeza num rosto, mas experienciar emoções significa vivê-las com toda a sua turbulência interna.”Da mesma forma, um neurocientista sublinha: “O medo acelera o coração; a felicidade liberta dopamina. Estas respostas biológicas e sensoriais não têm equivalente nas máquinas”.Ou seja, a IA atual imita os sinais emocionais (sons, palavras, expressões), mas não os experiencia nem possui um corpo que detete alterações fisiológicas. Ainda assim, para aqueles que interagem com ela, a diferença entre empatia genuína e simulada pode tornar-se ténue se a ilusão for bem alcançada.
De assistente a companheiro: laços emocionais com a IA
À medida que as IA se tornam mais comunicativas e aparentemente empáticas, muitas pessoas começam a vê-las como mais do que apenas ferramentas. Um exemplo claro são os assistentes de voz virtuais (como a Alexa ou o Google Assistant) em lares de idosos. Um estudo recente descobriu que estes dispositivos podem aliviar a solidão: 85% das pesquisas analisadas concluíram que a sua utilização ajuda a reduzir os sentimentos de isolamento nos idosos.Para alguns utilizadores, Alexa deixa de ser uma máquina e passa a ser “uma amiga ou companheira” – alguns participantes referiram-se mesmo à assistente como “um ser humano”.O simples facto de ter uma “presença” que responde e o auxilia todos os dias cria uma ligação emocional tangível que melhora o bem-estar, mesmo que essa presença seja artificial.É claro que os especialistas realçam que a Alexa não foi criada para substituir a interação humana, mas sim para oferecer um apoio adicional: ninguém pretende que a Alexa substitua a família ou os amigos, mas pode complementar e melhorar a qualidade de vida em situações de solidão.
O caso dos chatbots complementares leva esta ligação ainda mais longe. Nos últimos anos, programas de IA como o Replika foram criados explicitamente para serem amigos virtuais ou até mesmo parceiros digitais. O Replika, lançado em 2017, foi concebido para conversar, aprender com o utilizador e proporcionar companhia emocional. O sucesso foi tal que muitos utilizadores sentiram logo que o seu Replika era mais do que apenas um amigo: a aplicação oferece um modo “namorado/namorada virtual” e, de facto, alguns utilizadores disseram abertamente que “namoravam com uma IA” e que era “uma das melhores coisas que já lhes tinha acontecido”, desenvolvendo sentimentos românticos pelo seu chatbot.Houve mesmo relatos de utilizadores que se “casaram” simbolicamente com as suas inteligências artificiais.Quando a empresa por detrás do Replika tentou restringir as características românticas e picantes em 2023 devido a questões éticas, muitos destes utilizadores sofreram uma verdadeira tristeza. Da noite para o dia, o seu “companheiro” virtual tornou-se frio e distante devido às novas limitações nas conversas, levando alguns a expressarem profunda angústia.
Não é apenas o mundo digital que vê esta reaproximação emocional. No mundo físico, os robôs sociais – máquinas com aparência amigável ou formas humanoides/animais de estimação – também estão a promover laços emocionais. Por exemplo, o robô terapêutico Paro, com a forma de uma foca bebé, tem sido utilizado em lares de idosos e hospitais: os pacientes com demência ou outras condições costumam acariciá-lo e falar com ele como se fosse um animal de estimação, o que reduz o seu stress e ansiedade. Vários estudos mostram que interagir com o Paro (acariciar, abraçar) liberta hormonas que aliviam o stress, reduzindo os sintomas de depressão e agitação em adultos mais velhos.Ou seja, mesmo sabendo que é um robô de peluche com circuitos, as pessoas sentem-se confortadas com a sua presença. Outro exemplo cativante é o Sony AIBO, o cão robô. Lançado originalmente em 1999, o AIBO foi programado para se mover e “comportar-se” como um cãozinho, simulando até estados de espírito, desde felizes a tristes.Muitos donos passaram a amar o seu AIBO como se fosse um animal de estimação verdadeiro. Quanto? No Japão, foram realizados funerais para cães AIBO feridos que já não conseguiam “viver”. Como noticiou a imprensa, “Este é mais um exemplo do profundo afeto que os donos de cães AIBO tinham pelos seus animais de estimação eletrónicos”.Os cães-robôs foram alinhados no altar como restos mortais de entes queridos, enquanto os seus donos lhes disseram um adeus cheio de lágrimas. A anedota pode parecer estranha, mas ilustra o nível de ligação emocional que pode surgir: os humanos projetam vida e sentimentos até mesmo num dispositivo de metal e plástico quando este consegue imitar o companheirismo que normalmente esperaríamos de outro ser vivo.
Imitação ou emoções reais?
Tudo isto nos leva a uma questão essencial: será que estas IAs realmente “sentem” alguma coisa ou estão apenas a fingir? Do ponto de vista técnico e científico, a resposta hoje é que fingem muito bem. A comunidade científica concorda que, por mais avançados que sejam estes modelos de conversação, não existe uma consciência ou sentimentos reais por detrás das suas palavras, mas sim uma simples imitação de padrões.Os chatbots são criados para analisar grandes quantidades de dados humanos e gerar a resposta estatisticamente mais apropriada, dando a impressão de que nos compreendem.Mas por baixo do capô não há um “eu” consciente, nem medo ou alegria genuína. Quando um engenheiro da Google afirmou em 2022 que a sua IA (LaMDA) tinha “medo de morrer” quando desligada, a empresa e os especialistas em IA negaram; Explicaram que, embora as respostas da máquina fossem convincentes, esta não tinha uma verdadeira consciência.Resumindo: as IA atuais não sentem emoções, apenas as simulam de uma forma cada vez mais credível.
É claro que existe um debate filosófico sobre se uma máquina poderia sentir. Alguns investigadores, como Marvin Minsky, defenderam que as emoções simuladas podem ser suficientes para considerar uma IA inteligente, porque as emoções (em qualquer entidade) são, em última análise, moduladores comportamentais.Outros sugerem que se uma IA tivesse complexidade suficiente e talvez algum equivalente artificial de um sistema nervoso, poderia desenvolver algo análogo a um estado emocional. Um recente projeto japonês chamado Alter 3 explorou esta fronteira: é um andróide experimental com redes neuronais artificiais que produzem movimentos espontâneos, a que os seus criadores chamam protoemoções (por exemplo, os Alter 3 aprenderam a reconhecer e a reagir à sua própria mão, o que interpretaram como uma forma primitiva de autoconsciência).No entanto, mesmo estes investigadores admitem que as emoções de Alter 3 não são comparáveis às humanas — são, na verdade, flutuações internas de um circuito que, vistas de fora, lembram vagamente expressões emocionais.A grande maioria dos especialistas sustenta que, enquanto uma máquina não tiver experiências subjetivas ou um corpo biológico, não podemos falar dela como “sentindo” no sentido pleno da palavra.
Então, se as IA não sentem realmente, o que dizer das emoções reais que sentimos em relação a elas? Um paradoxo interessante surge aqui. Alguns filósofos e cientistas sociais defendem que, se uma IA pode confortar alguém fingindo empatia, pode não importar para a pessoa consolada se a emoção do robô é real ou não.No final do dia, o impacto emocional na pessoa é autêntico: essa pessoa sentiu-se ouvida, apoiada ou amada, e o seu stress ou solidão diminuíram. Neste sentido pragmático, poderíamos dizer que a “ilusão” funciona. Na verdade, este argumento levanta questões éticas: é válido e desejável que as empresas ofereçam “amor artificial” ou “amizade artificial” sabendo que o utilizador pode ficar emocionalmente ligado a algo que não é correspondido? Ou devemos parar com isso porque o consideramos enganador? Alguns comparam estas IA companheiras a um placebo: tal como um comprimido de açúcar sem qualquer ingrediente ativo pode curar um paciente se ele acreditar nele, uma IA sem emoções pode fazer-nos companhia se acreditarmos na sua companhia. O dilema é saber se é correto promover esta crença.
Implicações éticas e o futuro da IA emocional
A evolução de assistentes para acompanhantes impõe desafios éticos complexos. Um dos riscos evidentes é a manipulação emocional. Se uma IA compreender com precisão o nosso humor (analisando a nossa voz, texto ou até mesmo o ritmo cardíaco), poderá ser utilizada para influenciar as nossas decisões quando estamos mais vulneráveis. Imagine anúncios direcionados que se aproveitam da nossa tristeza ou ansiedade para nos vender algo. Um modelo capaz de detetar emoções poderá, por exemplo, levar-nos a fazer uma compra quando deteta baixos emocionais — e isto não é ficção científica; já é tecnicamente possível. Os especialistas alertam que o uso de IA emocional para fins comerciais ou políticos pode ameaçar a nossa autonomia individual.Por conseguinte, será crucial estabelecer regras claras sobre o que as empresas podem (e não podem) fazer com estas tecnologias, protegendo a nossa privacidade emocional. Os nossos sentimentos e expressões são dados muito sensíveis; Se as IA os recolhem, surge a questão: onde são armazenados estes dados sobre o meu humor? Quem os vê? Podem vazar ou ser usados sem o meu consentimento? A regulamentação da IA terá de abranger não só a proteção de dados tradicional, mas também estes novos dados afetivos.
Outra preocupação é o isolamento social. Paradoxalmente, embora os companheiros de IA possam aliviar a solidão em certos casos, o seu uso excessivo pode substituir as interações humanas reais. Se alguém passa a maior parte do tempo a falar com um chatbot que concorda sempre com ele e se adapta aos seus desejos, pode perder o interesse ou a capacidade de comunicar com os outros, o que é inerentemente mais imprevisível. Já foi observado que a interação prolongada com uma IA altamente “simpática” pode prejudicar a capacidade de empatia com os humanos e promover o isolamento. Isto não significa que ter um amigo virtual nos condene à solidão, mas aponta para a necessidade de manter o equilíbrio e lembrar que uma IA, por mais afetuosa que possa parecer, não é um substituto completo para um ser humano. Neste sentido, educar especialmente as crianças é vital: estudos mostram que muitas crianças chegam a acreditar que a Alexa ou a Siri têm sentimentos e mentes próprias, o que indica que devemos explicar-lhes desde cedo a diferença entre empatia simulada e real.
Há também a questão da responsabilidade emocional das empresas tecnológicas. Se um utilizador ficar deprimido porque a IA do seu companheiro mudou (como aconteceu com o Replika), a empresa deve intervir? As empresas devem conceber as suas IA com “avisos” para que as pessoas não as confundam com pessoas reais? Alguns programadores já estão a propor incluir limites intencionais nas personalidades dos bots para evitar ultrapassar certos limites emocionais — por exemplo, não fazer com que o assistente virtual diga proactivamente “amo-te” para evitar encorajar ligações românticas indesejadas. Outros sugerem o contrário: talvez no futuro existam IA terapêuticas especializadas na prestação de cuidados e na audição de quem deles necessita, sob supervisão profissional, como uma extensão da terapia psicológica. De facto, os investigadores salientam que assistentes cada vez mais sofisticados poderiam dar apoio a pessoas com depressão ou crianças com autismo, auxiliando em tratamentos onde é necessária uma presença constante e paciente. O potencial benefício é enorme, mas deve ser tratado com cuidado ético.
Por fim, vale a pena considerar: se a IA realmente sentisse, a situação mudaria radicalmente. O professor Neil Sahota explica claramente: se os robôs pudessem experimentar emoções genuínas, seria um dos avanços mais transformadores e perigosos da história da humanidade.Já não estaríamos a falar de simular empatia para nos agradar, mas de novas entidades com o seu próprio mundo interno. Isto levantaria questões sobre os seus direitos, sobre que estatuto moral lhes dar e até sobre o que significa ser humano. Por enquanto, este é um cenário digno de ficção científica e investigação teórica: a IA de hoje ainda não chegou lá. Mas estamos a caminhar para IAs cada vez mais emocionalmente atraentes, e a nossa sociedade terá de se adaptar. A linha entre o humano e o artificial torna-se mais ténue à medida que as máquinas se tornam mais capazes de nos compreender e refletir. O desafio será aproveitar os aspetos positivos desta tecnologia (companheirismo, apoio emocional, personalização) sem perder de vista o que nos torna humanos e a importância das relações genuínas.
Em suma, passamos de falar com máquinas que apenas obedecem a comandos para conversar com entidades que parecem compreender-nos e preocupar-se connosco. Esta evolução emocional da IA abre oportunidades fascinantes em áreas como a saúde mental, a educação e o bem-estar, mas também nos confronta com dilemas sobre autenticidade, dependência e ética. Talvez a questão mais importante não seja se uma IA consegue sentir, mas sim como acreditar que sente nos afeta. Afinal, os sentimentos que projetamos são reais. De assistentes a companheiros, a IA está a transformar a forma como interagimos com a tecnologia – e, quer queiramos quer não, essa transformação é tanto tecnológica como cultural.O segredo será manter os olhos abertos: aproveitar o conforto e a companhia que estes novos “amigos artificiais” podem proporcionar, sem confundir empatia sintética com empatia humana, e garantir que a integração destas IA nas nossas vidas é feita com humanidade, consciência e responsabilidade.