6.7 C
Nova Iorque
domingo, abril 6, 2025

Como a ciência pode se beneficiar da IA? Riscos?


Pesquisadores de química, biologia e medicina estão cada vez mais se voltando para os modelos de IA para desenvolver novas hipóteses. No entanto, muitas vezes não está claro, com base nos algoritmos que chegam às suas conclusões e até que ponto eles podem ser generalizados. Uma publicação da Universidade de Bonn agora alerta sobre mal -entendidos no tratamento da inteligência synthetic. Ao mesmo tempo, destaca as condições sob as quais os pesquisadores provavelmente podem confiar nos modelos. O estudo já foi publicado na revista Cell relata ciência física.

Os algoritmos adaptativos de aprendizado de máquina são incrivelmente poderosos. No entanto, eles têm uma desvantagem: como os modelos de aprendizado de máquina chegam a suas previsões geralmente não são aparentes de fora.

Suponha que você alimente a inteligência synthetic com fotos de vários milhares de carros. Se você agora apresentar uma nova imagem, geralmente pode identificar de maneira confiável se a imagem também mostra um carro ou não. Mas por que isso? Já aprendeu que um carro tem quatro rodas, um para -brisa e um escapamento? Ou sua decisão é baseada em critérios que são realmente irrelevantes – como a antena no telhado? Se fosse esse o caso, também poderia classificar um rádio como carro.

Os modelos de IA são caixas pretas

“Os modelos de IA são caixas pretas”, destaca o Prof. Dr. Jürgen Bajorath. “Como resultado, não se deve confiar cegamente em seus resultados e tirar conclusões deles”. O especialista em química computacional lidera a IA no Departamento de Ciências da Vida do Instituto Lamarr de aprendizado de máquina e inteligência synthetic. Ele também é responsável pelo Programa de Informática da Ciência da Vida no Bonn-Aachen Worldwide Heart for Info Know-how (B-IT) na Universidade de Bonn. Na publicação atual, ele investigou a questão de quando se pode provavelmente confiar nos algoritmos. E vice -versa: quando não.

O conceito de “explicação” desempenha um papel importante nesse contexto. Metaforicamente falando, isso se refere a esforços dentro da pesquisa de IA para perfurar um versista na caixa preta. O algoritmo deve revelar os critérios que ele usa como base – as quatro rodas ou a antena. “A abertura da caixa preta atualmente é um tópico central na pesquisa de IA”, diz Bajorath. “Alguns modelos de IA são desenvolvidos exclusivamente para tornar os resultados de outros mais compreensíveis”.

A explicação, no entanto, é apenas um aspecto – a questão de quais conclusões podem ser tiradas dos critérios de tomada de decisão escolhidos por um modelo é igualmente importante. Se o algoritmo indicar que ele baseou sua decisão na antena, um ser humano sabe imediatamente que esse recurso é mal adequado para identificar carros. Apesar disso, os modelos adaptativos geralmente são usados ​​para identificar correlações em grandes conjuntos de dados que os humanos podem nem notar. Somos então como alienígenas que não sabem o que faz um carro: um alienígena seria incapaz de dizer se uma antena é ou não um bom critério.

Modelos de linguagem química sugerem novos compostos

“Há outra pergunta que sempre precisamos nos perguntar ao usar os procedimentos de IA na ciência”, enfatiza Bajorath, que também é membro da área de pesquisa transdisciplinar (modelagem “:” Quão interpretáveis ​​são os resultados? ” Atualmente, os modelos de linguagem química são um tópico quente em pesquisa química e farmacêutica. É possível, por exemplo, alimentá -los com muitas moléculas que têm uma certa atividade biológica. Com base nesses dados de entrada, o modelo aprende e, idealmente, sugere uma nova molécula que também possui essa atividade, mas uma nova estrutura. Isso também é chamado de modelagem generativa. No entanto, o modelo geralmente não pode explicar por que se trata dessa solução. Muitas vezes, é necessário aplicar posteriormente os métodos de IA explicáveis.

No entanto, Bajorath adverte contra a interpretação excessiva dessas explicações, isto é, antecipando que apresenta a IA considera importantes de fato causar a atividade desejada. “Os modelos atuais de IA não entendem essencialmente nada sobre química”, diz ele. “Eles são puramente estatísticos e correlativos por natureza e prestam atenção a quaisquer características distintas, independentemente de esses recursos serem quimicamente ou biologicamente relevantes ou não”. Apesar disso, eles podem até estar certos em sua avaliação – então talvez a molécula sugerida tenha as capacidades desejadas. As razões para isso, no entanto, podem ser completamente diferentes do que esperaríamos com base no conhecimento ou intuição química. Para avaliar a causalidade potencial entre as características que geram previsões e os resultados dos processos naturais correspondentes, geralmente são necessários experimentos: os pesquisadores devem sintetizar e testar a molécula, bem como outras moléculas com o motivo estrutural que a IA concede importante.

Verificações de plausibilidade são importantes

Tais testes são demorados e caros. Bajorath, assim, alerta contra a interpretação excessiva da IA ​​resulta na busca por relações causais cientificamente plausíveis. Na sua opinião, uma verificação de plausibilidade baseada em uma sólida lógica científica é de importância crítica: o recurso sugerido pela IA explicável pode realmente ser responsável pela propriedade química ou biológica desejada? Vale a pena perseguir a sugestão da IA? Ou é um artefato provável, uma correlação identificada aleatoriamente, como a antena do carro, que não é relevante para a função actual?

O cientista enfatiza que o uso de algoritmos adaptativos fundamentalmente tem o potencial de avançar substancialmente pesquisas em muitas áreas da ciência. No entanto, é preciso estar ciente dos pontos fortes dessas abordagens – e particularmente de suas fraquezas.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles