Quando Neguine Rezaii mudou-se para os Estados Unidos há uma década, hesitou em dizer às pessoas que era iraniana. Em vez disso, usava o termo “persa”. “Imaginei que as pessoas provavelmente não entenderiam o que isso significava”, diz.
A ambiguidade linguística foi útil: Rezaii poderia ao mesmo tempo esconder o seu constrangimento com o regime de Mahmoud Ahmadinejad, e continuar a ser fiel a si mesma. “As pessoas apenas sorriam e iam embora”. Atualmente está feliz em dizer “iraniana” novamente.
Nem todos optamos por usar a linguagem de forma tão consciente quanto Rezaii – mas as palavras que usamos são importantes. Poetas, detetives e advogados analisam há muito tempo a linguagem das pessoas em busca de pistas para encontrar os seus motivos e verdades interiores. Psiquiatras também: talvez, especialmente os psiquiatras. Afinal, embora a medicina agora tenha uma série de testes e ferramentas técnicas para diagnosticar doenças físicas, a principal ferramenta da psiquiatria é a mesma empregada há séculos: a pergunta “Então, como se sente hoje?” Simples de perguntar, talvez – mas não de responder.
“Na psiquiatria, não temos nem mesmo um estetoscópio”, diz Rezaii, que agora é membro de neuropsiquiatria no Massachusetts General Hospital. “São 45 minutos a conversar com um paciente e, em seguida, fazer um diagnóstico com base nessa conversa. Não existem medidas objetivas. Não existem números”.
Não há nenhum exame de sangue para diagnosticar a depressão, nenhuma tomografia que possa identificar a ansiedade antes que aconteça. Os pensamentos suicidas não podem ser diagnosticados por uma biópsia e, mesmo que os psiquiatras estejam profundamente preocupados que a pandemia da Covid-19 tenha graves impactos na saúde mental, não têm uma maneira fácil de rastrear isso. Na linguagem da medicina, não existe um único biomarcador confiável que possa ser usado para ajudar a diagnosticar qualquer condição psiquiátrica. A procura por atalhos para encontrar a corrupção do pensamento continua sem resultados – mantendo muito da psiquiatria no passado e bloqueando o caminho para o progresso. Isso torna o diagnóstico um processo lento, difícil e subjetivo e impede os investigadores de compreender a verdadeira natureza e as causas do espectro das doenças mentais ou de desenvolver melhores tratamentos.
Mas e se houvesse outras maneiras? E se nós não ouvíssemos apenas as palavras, mas as medíssemos? Isso poderia ajudar os psiquiatras a seguir as pistas verbais que nos podem levar de volta ao nosso estado de espírito?
“Isso é basicamente o que queremos”, diz Rezaii. “Encontrar algumas características comportamentais às quais podemos atribuir alguns números. Sermos capazes de segui-las de maneira confiável e usá-las para detecção ou diagnóstico potencial de transtornos mentais”.
Em junho de 2019, Rezaii publicou um artigo sobre uma nova abordagem radical que fazia exatamente isso. A sua pesquisa mostrou que a maneira como falamos e escrevemos pode revelar indícios precoces de psicose e que os computadores podem-nos ajudar a detetar esses sinais com uma precisão desconcertante. Ela seguiu as migalhas de pão da linguagem para ver aonde levavam.
Rezaii descobriu que a análise da linguagem podia prever com mais de 90% de precisão quais os pacientes que tinham probabilidade de desenvolver esquizofrenia antes de quaisquer sintomas típicos surgirem.
Pessoas que têm tendência a ouvir vozes tendem a falar sobre elas. Estas pessoas não mencionam as alucinações auditivas explicitamente, mas usam palavras associadas – “som”, “ouvir”, “cantar”, “alto” – com mais frequência numa conversa normal. O padrão é tão subtil que alguém não seria capaz de detetar os sinais mesmo prestando muita atenção. Mas um computador pode identificá-los. E em testes com dezenas de pacientes psiquiátricos, Rezaii descobriu que a análise da linguagem poderia prever quais deles tinham probabilidade de desenvolver esquizofrenia com mais de 90% de precisão, antes de quaisquer sintomas típicos surgirem. Prometia um grande avanço.
No passado, a captura de informações sobre alguém ou a análise das declarações de uma pessoa para fazer um diagnóstico dependiam da habilidade, experiência e opiniões de psiquiatras individuais. Mas, graças à omnipresença dos smartphones e das redes sociais, a linguagem das pessoas nunca foi tão fácil de registar, digitalizar e analisar. E um número crescente de investigadores está a analisar os dados que produzimos – desde a nossa escolha de linguagem ou os nossos padrões de sono até a frequência com que ligamos para os nossos amigos e o que escrevemos no Twitter e no Facebook – para procurar sinais de depressão, ansiedade, transtorno bipolar e outras síndromes.
Para Rezaii e outros, a capacidade de recolher estes dados e analisá-los é o próximo grande avanço da psiquiatria. Chamam a isso de “fenotipagem digital”.
Pesar as palavras
Em 1908, o psiquiatra suíço Eugen Bleuler anunciou o nome de uma doença que ele e os seus colegas estavam a estudar: esquizofrenia. Observou como os sintomas da doença “encontram a sua expressão na linguagem”, mas acrescentou: “A anormalidade não está na linguagem em si, mas no que ela tem a dizer”.
Bleuler foi um dos primeiros a concentrar-se nos chamados sintomas “negativos” da esquizofrenia, a ausência de algo visto em pessoas saudáveis. São menos perceptíveis do que os chamados sintomas positivos, que indicam a presença de algo a mais, como alucinações. Um dos sintomas negativos mais comuns é alogia ou pobreza da fala. Os pacientes falam menos ou expressam-se pouco quando falam, usando frases vagas, repetitivas e estereotipadas. O resultado é o que os psiquiatras chamam de baixa densidade semântica.
Estes sintomas são um sinal revelador de que um paciente pode estar em risco de psicose. A esquizofrenia, uma forma comum de psicose, tende a desenvolver-se no final da adolescência ao início dos 20 anos para os homens e do final dos 20 anos ao início dos 30 para as mulheres – mas um estágio preliminar com sintomas mais leves geralmente precede a condição completa. Muitas pesquisas são realizadas com pessoas nessa fase “prodrómica”, e psiquiatras como Rezaii estão a usar a linguagem e outras medidas comportamentais para tentar identificar quais os pacientes prodrómicos que desenvolvem esquizofrenia total e porquê. Com base em outros projetos de pesquisa que sugerem, por exemplo, que pessoas com alto risco de psicose tendem a usar menos pronomes possessivos como “meu”, “dele” ou “nosso”, Rezaii e seus colegas queriam ver se um computador poderia detetar uma baixa densidade semântica.
Os investigadores usaram gravações de conversas feitas ao longo da última década com dois grupos de pacientes com esquizofrenia na Emory University. Eles dividiram cada frase falada numa série de ideias centrais para que um computador pudesse medir a densidade semântica. A frase “Bem, acho que tenho fortes sentimentos sobre política” obtém uma pontuação alta, graças às palavras “forte”, “política” e “sentimentos”.
Mas uma frase como “Agora, eu sei como ser porreiro com as pessoas porque é como não falar, tipo, sabes como ser porreiro com as pessoas, é como se agora eu soubesse como fazer isso” tem uma densidade semântica muito baixa.
Num segundo teste, os investigadores fizeram o computador contar o número de vezes que cada paciente usou palavras associadas a sons – procurando pistas sobre vozes que eles podem estar a ouvir, mas mantendo isso em segredo. Em ambos os casos, os investigadores deram ao computador uma linha de base da fala “normal”, alimentando-o com conversas online publicadas por 30.000 utilizadores do Reddit.
Quando os psiquiatras encontram pessoas na fase prodrómica, usam um conjunto padrão de entrevistas e testes cognitivos para prever qual delas desenvolverá psicose. Geralmente acertam 80% das vezes. Ao combinar as duas análises de padrões de fala, o computador de Rezaii acertou pelo menos 90%.
A neuropsiquiatra diz que ainda há um longo caminho a percorrer antes que a descoberta possa ser usada na clínica para ajudar a prever o que acontecerá com os pacientes. O estudo analisou o discurso de apenas 40 pessoas; o próximo passo seria aumentar o tamanho da amostra. Mas Rezaii já está a trabalhar num software que pode analisar rapidamente as conversas que ela tem com os pacientes. “Se apertar o botão e ele mostrar os números. Qual é a densidade semântica da fala do paciente? Quais foram as características subtis sobre as quais o paciente falou, mas não necessariamente expressou de forma explícita?” diz. “Seria muito interessante se fosse uma maneira de ter acesso às camadas mais profundas e subconscientes da mente”.
Os resultados também têm uma implicação óbvia: se um computador pode detetar com segurança essas mudanças subtis, por que não monitorizar continuamente as pessoas em risco?
Mais do que esquizofrenia
Cerca de uma em cada quatro pessoas em todo o mundo sofrerá de uma síndrome psiquiátrica durante a sua vida. Duas em cada quatro agora possuem um smartphone. Usar os dispositivos para capturar e analisar padrões de fala e texto pode funcionar como um sistema de alerta precoce. Isso daria aos médicos tempo para intervir junto às pessoas sob maior risco, talvez para observá-las mais de perto – ou mesmo para tentar terapias para reduzir a chance de um evento psicótico.
Os pacientes também podem usar a tecnologia para monitorizar os seus próprios sintomas. Pacientes com problemas de saúde mental costumam ser narradores não confiáveis quando se trata de sua saúde – incapazes ou relutantes em identificar os seus sintomas. Mesmo a monitorização digital de medições básicas, como o número de horas de sono que alguém passa a dormir, pode ajudar, diz Kit Huckvale, um pós-doutorado que trabalha com saúde digital no Black Dog Institute em Sydney, porque pode alertar os pacientes quando eles podem estar mais vulneráveis a uma queda nas suas condições.
Não é apenas a esquizofrenia que pode ser detetada com a ajuda de uma máquina. Ao analisar os telemóveis das pessoas, os psiquiatras foram capazes de captar os sinais subtis que precedem um episódio bipolar.
“Ao usar estes computadores que todos carregamos connosco, talvez tenhamos acesso a informações sobre mudanças de comportamento, cognição ou experiência que fornecem fortes sinais sobre doenças mentais futuras”, diz ele. “Ou, de facto, apenas os primeiros estágios de angústia”.
E não é apenas esquizofrenia que pode ser detetada com uma máquina. Provavelmente, o uso mais avançado da fenotipagem digital é prever o comportamento de pessoas com transtorno bipolar. Ao analisar os telefones das pessoas, os psiquiatras foram capazes de captar os sinais subtis que precedem um episódio. Quando uma queda de humor está a chegar, os sensores GPS em telefones de pacientes bipolares mostram que eles tendem a ser menos ativos. Eles atendem menos as chamadas recebidas, fazem menos chamadas e geralmente passam mais tempo a olhar para a tela. Em contraste, antes de uma fase maníaca, eles andam mais, enviam mais mensagens de texto e passam mais tempo a falar ao telefone.
Em março de 2017, centenas de pacientes que receberam alta de hospitais psiquiátricos nos arredores de Copenhaga começaram a receber telefones personalizados emprestados para que os médicos pudessem analisar remotamente nas suas atividades e verificar se há sinais de mau humor ou mania. Se os investigadores detetarem padrões incomuns ou preocupantes, os pacientes são convidados a falar com uma enfermeira. Ao observar e reagir aos primeiros sinais de alerta desta forma, o estudo visa reduzir o número de pacientes que apresentam uma recaída grave.
Estes projetos procuram o consentimento dos participantes e prometem manter os dados confidenciais. Mas, à medida que os detalhes sobre saúde mental são engolidos para o mundo dos grandes volumes de dados, os especialistas levantam questões sobre privacidade.
“A adoção dessa tecnologia está definitivamente a ultrapassar a regulamentação legal. Está até a ultrapassar o debate público”, diz Piers Gooding, que estuda leis e políticas de saúde mental no Melbourne Social Equity Institute, na Austrália. “É preciso haver um debate público sério sobre o uso de tecnologias digitais no contexto da saúde mental”.
Os cientistas já usaram vídeos publicados por famílias no YouTube – sem procurar consentimento explícito – para treinar computadores para encontrar movimentos corporais característicos de crianças com autismo. Outros analisaram as publicações do Twitter para ajudar a identificar comportamentos associados à transmissão do HIV, enquanto as seguradoras de Nova Iorque têm permissão oficial para estudar os feeds do Instagram das pessoas antes de calcularem os seus prémios de seguro de vida.
À medida que a tecnologia segue e analisa os nossos comportamentos e estilos de vida com cada vez mais precisão – às vezes com o nosso conhecimento disso e às vezes sem – as oportunidades para outros monitorizarem remotamente o nosso estado mental estão a crescer rapidamente.
Proteções de privacidade
Em teoria, as leis de privacidade devem evitar que dados de saúde mental sejam repassados. Nos EUA, o estatuto da Lei de Portabilidade e Responsabilidade do Seguro de Saúde (em inglês, HIPAA) de 24 anos regula a partilha de dados médicos, e a lei de proteção de dados da Europa, o Regulamento Geral sobre a Proteção de Dados (RGPD), teoricamente também deveria impedir isso. Mas um relatório de 2019 de vigilância da Privacy International descobriu que sites populares sobre depressão na França, Alemanha e Reino Unido partilhavam dados de utilizadores com anunciantes, corretores de dados e grandes empresas de tecnologia, enquanto alguns sites que ofereciam testes de depressão partilhavam respostas e resultados com terceiros.
Gooding destaca que por vários anos a polícia canadiana passava detalhes sobre as pessoas que tentaram suicídio aos oficiais da fronteira dos Estados Unidos, que então recusariam a entrada delas no país. Em 2017, uma investigação concluiu que a prática era ilegal e foi interrompida.
Poucos contestariam que isso foi uma invasão de privacidade. Afinal, a informação médica é sagrada. Mesmo quando são feitos diagnósticos de doenças mentais, as leis em todo o mundo devem prevenir a discriminação no local de trabalho e noutros lugares.
Mas alguns especialistas em ética temem que a fenotipagem digital confunda os limites do que poderia ou deveria ser classificado, regulamentado e protegido como dados médicos.
Se as minúcias de nossa vida diária forem peneiradas em busca de pistas para a nossa saúde mental, então o nosso “escape digital” – dados sobre quais palavras escolhemos, com que rapidez respondemos a textos e ligações, com que frequência deslizamos para a esquerda, quais as publicações que escolhemos dar like – poderia dizer aos outros tanto sobre o nosso estado de espírito quanto o que está nos nossos registos médicos confidenciais. E isso é quase impossível esconder.
“A tecnologia empurrou-nos para além dos paradigmas tradicionais que deveriam proteger certos tipos de informação”, diz Nicole Martinez-Martin, especialista em bioética da Universidade de Stanford. “Quando todos os dados são potencialmente dados de saúde, então há um monte de perguntas sobre se esse tipo de excepcionalidade de informações de saúde ainda faz sentido”.
As informações de saúde, acrescenta, costumavam ser simples de classificar – e, portanto, proteger – porque eram produzidas por profissionais de saúde e mantidas em instituições de saúde, cada uma das quais tinha os seus próprios regulamentos para salvaguardar as necessidades e direitos dos seus pacientes. Agora, muitas maneiras de seguir e monitorizar a saúde mental ao usar sinais das nossas ações diárias estão a ser desenvolvidas por empresas comerciais, que não tem regulamentos ou não são voltadas para a área.
O Facebook, por exemplo, afirma usar algoritmos de Inteligência Artificial para encontrar pessoas em risco de suicídio, examinando a linguagem das publicações e comentários preocupados de amigos e familiares. A empresa diz que alertou as autoridades para ajudar pessoas em pelo menos 3.500 casos. Mas investigadores independentes reclamam que o Facebook não revelou como o seu sistema funciona ou o que faz com os dados que recolhe.
“Embora os esforços de prevenção do suicídio sejam de vital importância, essa não é a resposta”, diz Gooding. “Não há estudos sobre a precisão, escala ou eficácia da iniciativa, nem informações sobre o que exatamente a empresa faz com esses dados após cada aparente crise. Está basicamente escondido atrás de uma cortina de leis de sigilo comercial”.
Os problemas não são apenas do setor privado. Embora os investigadores que trabalham em universidades e institutos de pesquisa estejam sujeitos a uma rede de permissões para garantir consentimento, privacidade e aprovação ética, algumas práticas académicas podem realmente encorajar e permitir o uso indevido da fenotipagem digital, ressalta Rezaii.
“Quando publiquei o meu artigo sobre a previsão da esquizofrenia, os editores queriam que o código fosse abertamente acessível, e eu disse ‘tudo bem’ porque estava interessada em coisas liberais e gratuitas. Mas e se alguém usar isso para construir uma aplicação e prognosticar coisas em adolescentes esquisitos? Isso é arriscado,” alerta. “Os jornais têm defendido a publicação gratuita dos algoritmos. Foi descarregado 1.060 vezes até agora. Não sei com que propósito, e isso incomoda-me”.
Além das questões de privacidade, alguns temem que a fenotipagem digital seja simplesmente exagerada.
Serife Tekin, que estuda a filosofia da psiquiatria na Universidade do Texas em San Antonio, diz que os psiquiatras têm uma longa história de se atirarem à última tecnologia como forma de tentar fazer os seus diagnósticos e tratamentos parecerem mais baseados em evidências. De lobotomias a promessas coloridas de tomografias, a área tende a mover-se com enormes ondas de otimismo acrítico que mais tarde se provam infundadas, diz ela – e a fenotipagem digital poderia ser simplesmente o exemplo mais recente.
“A psiquiatria contemporânea está em crise”, diz ela. “Mas é questionável se a solução para a crise na pesquisa em saúde mental é a fenotipagem digital. Quando colocamos todos os nossos ovos no mesmo cesto, isso não envolve realmente a complexidade do problema”.
Tornar a saúde mental mais moderna?
Neguine Rezaii sabe que ela e outras pessoas que trabalham com fenotipagem digital às vezes ficam cegas pelo potencial brilhante da tecnologia. “Há coisas em que não pensei porque estamos muito entusiasmados em obter o máximo de dados possível sobre esse sinal oculto na linguagem”, afirma.
Mas Rezaii também sabe que a psiquiatria confiou por muito tempo em pouco mais do que suposições informadas. “Não queremos fazer inferências questionáveis sobre o que o paciente pode ter dito ou quis dizer se há uma maneira de descobrir objetivamente”, diz ela. “Queremos gravá-los, apertar um botão e obter alguns números. No final da consulta, temos os resultados. Esse é o ideal. É nisso que estamos a trabalhar”.
Para Rezaii, é natural que os psiquiatras modernos queiram usar smartphones e outras tecnologias disponíveis. As discussões sobre ética e privacidade são importantes, refere, assim como é a consciência de que as empresas de tecnologia já recolhem informações sobre o nosso comportamento e as usam – sem o nosso consentimento – para fins menos nobres, como decidir quem pagará mais por viagens de táxi idênticas ou espere mais para ser recebido.
“Vivemos num mundo digital. As coisas podem sempre ser abusadas”, avisa. “Uma vez que um algoritmo está disponível, as pessoas podem utilizá-lo noutras pessoas. Não há como evitar isso. Pelo menos no mundo médico, pedimos consentimento”.
Artigo original de David Adam, colaborador na MIT Technology Review (EUA) (adaptado).