Os cuidados de saúde psychological podem ser difíceis de acessar na cobertura de seguro dos EUA é irregular e não há profissionais de saúde psychological suficientes para cobrir a necessidade do país, levando a longas esperas e cuidados dispendiosos.
Entre na inteligência synthetic (AI).
Os aplicativos de saúde psychological da AI, que vão de rastreadores de humor a chatbots que imitam os terapeutas humanos, estão proliferando no mercado. Embora eles possam oferecer uma maneira barata e acessível de preencher as lacunas em nosso sistema, há preocupações éticas sobre a excesso de confiança na IA para cuidados de saúde psychological – especialmente para crianças.
A maioria dos aplicativos de saúde psychological da IA não é regulamentada e projetada para adultos, mas há uma conversa crescente sobre usá -los com crianças. Bryanna Moore, PhD, Professora Assistente de Humanidades de Saúde e Bioética no Centro Médico da Universidade de Rochester (URMC), quer garantir que essas conversas incluam considerações éticas.
“Ninguém está falando sobre o que é diferente nas crianças – como suas mentes funcionam, como estão incorporadas à unidade acquainted, como a tomada de decisão é diferente”, diz Moore, que compartilhou essas preocupações em um comentário recente no Jornal de Pediatria. “As crianças são particularmente vulneráveis. Seu desenvolvimento social, emocional e cognitivo é apenas em um estágio diferente dos adultos”.
De fato, os chatbots de saúde psychological da IA podem prejudicar o desenvolvimento social das crianças. As evidências mostram que as crianças acreditam que os robôs têm “posição ethical e vida psychological”, o que levanta preocupações de que as crianças – especialmente as jovens – podem se apegar aos chatbots à custa da construção de relacionamentos saudáveis com as pessoas.
O contexto social de uma criança – seus relacionamentos com a família e os colegas – é parte integrante de sua saúde psychological. É por isso que os terapeutas pediátricos não tratam as crianças isoladamente. Eles observam a família e as relações sociais de uma criança para garantir a segurança da criança e incluir membros da família no processo terapêutico. Os chatbots da IA não têm acesso a essas importantes informações contextuais e podem perder oportunidades de intervir quando uma criança está em perigo.
A IA Chatbots – e os sistemas de IA em geral – também tendem a piorar as desigualdades de saúde existentes.
“A IA é tão boa quanto os dados em que é treinado. Para construir um sistema que funcione para todos, você precisa usar dados que representem todos”, disse o co -autor de comentários Jonathan Herington, doutorado, professor assistente de departamentos de filosofia e humanidades em saúde e bioética. “Infelizmente, sem esforços realmente cuidadosos para criar conjuntos de dados representativos, esses chatbots da IA não poderão servir a todos”.
O sexo, a raça, a etnia de uma criança, onde elas vivem, e a relativa riqueza de sua família afetam o risco de experimentar eventos adversos da infância, como abuso, negligência, encarceramento de um ente querido ou testemunhar violência, abuso de substâncias ou doenças mentais em casa ou comunidade. As crianças que experimentam esses eventos têm maior probabilidade de precisar de cuidados intensivos de saúde psychological e têm menos probabilidade de poder acessá -lo.
“Filhos de meios menores podem não poder pagar terapia humano-para-humano e, assim, confiar nesses chatbots de IA no lugar da terapia humana para humana”, disse Herington. “Os chatbots da IA podem se tornar ferramentas valiosas, mas nunca devem substituir a terapia humana”.
A maioria dos chatbots de terapia de IA não é atualmente regulamentada. A Meals and Drug Administration dos EUA aprovou apenas um aplicativo de saúde psychological baseado em IA para tratar a depressão maior em adultos. Sem regulamentos, não há como proteger contra uso indevido, falta de relatórios ou desigualdade nos dados de treinamento ou acesso ao usuário.
“Existem tantas perguntas em aberto que não foram respondidas ou claramente articuladas”, disse Moore. “Não estamos defendendo que essa tecnologia seja nixada. Não estamos dizendo que nos livrem da IA ou dos robôs de terapia. Estamos dizendo que precisamos ser atenciosos na maneira como os usamos, principalmente quando se trata de uma população como crianças e seus cuidados de saúde psychological”.
Moore e Herington fizeram uma parceria com a SERIFE Tekin, PhD, Professora Associada do Centro de Bioética e Humanidades da SUNY Upstate Medical, neste comentário. Tekin estuda a filosofia da psiquiatria e da ciência cognitiva e a bioética do uso da IA em medicina.
No futuro, a equipe espera fazer parceria com os desenvolvedores para entender melhor como eles desenvolvem chatbots de terapia baseados em IA. Particularmente, eles querem saber se e como os desenvolvedores incorporam considerações éticas ou de segurança no processo de desenvolvimento e até que ponto seus modelos de IA são informados por pesquisa e envolvimento com crianças, adolescentes, pais, pediatras ou terapeutas.