O Facebook Contra o Suicídio

O Facebook e outras grandes empresas de mídia social estão desenvolvendo trabalhos de prevenção ao suicídio criando novos sistemas de alerta para melhor identificar e ajudar indivíduos em risco. Recentemente, o Facebook tornou público um novo conjunto de ferramentas, incluindo os primeiros algoritmos de reconhecimento de padrões para identificar usuários que possam ser suicidas ou estar em risco de automutilações. Segundo a empresa, o novo esforço ajudará a marcar publicações preocupantes e conectar os usuários com os serviços de saúde mental. Entretanto, os especialistas questionam em que medida os algoritmos de aprendizagem automática podem prever um suicídio com precisão ( crédito da imagem)

O Facebook e outras grandes empresas de mídia social estão desenvolvendo trabalhos de prevenção ao suicídio criando novos sistemas de alerta para melhor identificar e ajudar indivíduos em risco. Recentemente, o Facebook tornou público um novo conjunto de ferramentas, incluindo os primeiros algoritmos de reconhecimento de padrões da empresa, para identificar usuários que possam ser suicidas ou estar em risco de auto-agressões menos danosas. Segundo a empresa, o novo esforço ajudará a marcar publicações preocupantes e conectar os usuários com os serviços de saúde mental
O Facebook diz estar expandindo seus serviços que permitem aos amigos reportarem publicações as quais contenham sinais de qualquer plano de suicídio ou automutilação, além de fornecerem um menu de opções para ambos os casos e para os amigos que os reportou. As opções incluem linhas diretas para telefonar, prazos para entrar em contato com amigos e dicas sobre o que fazer em momentos de crise. Essa ferramenta também estará disponível para transmissões ao vivo no Facebook. A empresa também está criando um programa que permitirá às pessoas usarem o Messenger, aplicativo de mensagem instantânea da rede social, para se conectarem diretamente com conselheiros de organizações de apoio à crise como a Crisis Text Line e a National Suicide Prevention Lifeline (NSPL).
O Facebook planeja, ainda, usar algoritmos de reconhecimento de padrões para identificar pessoas que possam estar em risco de automutilação e fornecer a elas recursos para ajudar. A companhia diz que seu novo programa de inteligência artificial (IA), o qual será lançado inicialmente em uma base limitada, usará aprendizagem automática para identificar postagens que sugiram pensamentos suicidas - mesmo que ninguém no Facebook já tenha informado isso.
O porta voz do Facebook, William Nevius diz que os algoritmos de aprendizagem automática vai usar dois sinais - um de palavras ou frases em publicações de usuários que se relacionem com suicídio ou automutilação e outro de comentários feitos por amigos preocupados - para determinar se alguém corre risco ou não. Se o programa de reconhecimento de padrão identifica postagens preocupantes, o botão de “denunciar publicação” mais proeminentemente para encorajar visualmente os usuários a clicarem. 
Se essas pistas sinalizarem para um nível maior de urgência, o sistema alertará automaticamente a equipe de Operações Comunitárias do Facebook - um grupo de funcionários que fornecem suporte técnico e monitoram o site para questões como bullying e contas hackeadas. A equipe rapidamente revisará a postagem e vai determinar se a pessoa precisa de suporte adicional ou não. Caso precise, o usuário verá uma página de recursos aparecer em seu feed de notícias. 
Segundo a matéria publicada por Diana Know na revista Scientific American Brasil, alguns especialistas em saúde mental dizem que a IA ainda é limitada para identificar sozinha riscos de suicídio através da linguagem. Para Joseph Franklin, psicólogo na Universidade Estadual da Flórida que estuda o risco de suicídio, apesar de décadas de pesquisa, a habilidade de especialistas em detectar futuras tentativas de suicídio continuou sendo não mais do que acaso. “Existe apenas um pequeno sinal de previsão”, diz Franklin. Essas limitações estimularam ele e outras pessoas a trabalhar desenvolvendo algoritmos de aprendizagem automática que ajudem a avaliar o risco analisando dado de registros de saúde eletrônicos. “A limitação de registros de saúde é que… podemos prever com precisão [o risco] com o passar do tempo, mas não sabemos em qual dia farão tentativas de suicídio”, explica Franklin. As mídias sociais podem ajudar bastante para fornecer um timing mais claro, ele acrescenta. Contudo, isso também teria limitações: “Não há muito que você possa dizer de um texto, mesmo usando um processamento de linguagem natural mais complicado, porque as pessoas podem utilizar as expressões “suicídio” e “me matar” por diferentes razões - e você não sabe se alguém está as utilizando de uma forma particular”.
Alguns pesquisadores, como Glen Coppersmith, fundador e CEO da companhia de análise de saúde mental Qntfy, descobriram sinais estratégicos na própria linguagem. Em um exame recente dos dados do Twitter disponíveis publicamente, Coppersmith e seus colegas descobriram que conteúdos emocionais de publicações - como texto e emojis - poderiam ser indicativos de risco. Ele observa, entretanto, que esses ainda são “pequenos pedaços do quebra-cabeças”, acrescentando que “o outro lado disso, uma espécie de sinal sem linguagem, é o horário”. “O Facebook tem informações sobre quando você está logado, quando está conversando no chat… e em que horários você está online, [que são] sinais bem interessantes os quais podem ser relevantes para dizer se você está em risco próximo de um suicídio”.
Craig Bryan, pesquisador na Universidade de Utah que investiga o risco de suicídio na população veterana, começou a examinar a importância do tempo no caminho para o suicídio. “Em nossa mais recente pesquisa, estão observando padrões temporais de sequências à medida que surgem - onde [descobrimos que] não é apenas ter várias publicações sobre depressão ou uso de álcool, por exemplo, [mas sim] é a ordem na qual você os escreve”.
Outro fator importante para se considerar, especialmente com adolescentes, é o quão frequentemente sua linguagem muda, diz Megan Moreno, pediatra do Hospital Infantil de Seattle. Em um estudo de 2016, Moreno e seus colaboradores descobriram que, assim que uma hashtag sobre auto-mutilação é banida ou marcadas como perigosa no Instagram, diversas novas versões surgem. Por exemplo: quando o Instagram bloqueou #automutilacao, substitutos com ortografia alternativa (#automutilacaooo e #autoferimentoo) ou gírias ( #lâminas) surgiram. “Eu continuo a pensar que a aprendizagem automáticas sempre estará alguns passos atrás da forma como os adolescentes se comunicam”, diz Moreno. “Por mais que eu admire esses esforços, acredito que não podemos confiar nisso como a única maneira de sabermos se uma criança está tendo problemas”.
Para saber mais, clique nos links acima

Comentários

Postagens mais visitadas deste blog

A Mariposa da Morte

Tecnologia Indígena

A Importância Ecológica das Baratas