Diretrizes para o uso de IA na ciência – SofolFreelancer


Urs Gasser é Reitor da Escola de Ciências Sociais e Tecnologia TUM e Reitor da Escola de Políticas Públicas. Juntamente com um grupo de trabalho internacional, elaborou regras para a utilização da IA ​​na ciência.

Força-tarefa visa garantir confiança na pesquisa

A inteligência artificial (IA) gera textos, vídeos e imagens que dificilmente podem ser distinguidos dos humanos – o que faz com que muitas vezes já não saibamos o que é real. Além disso, os investigadores são cada vez mais apoiados pela IA. Um grupo de trabalho internacional desenvolveu agora princípios para a utilização da IA ​​na investigação, a fim de garantir a confiança na ciência. Os cientistas também são cada vez mais auxiliados pela IA. Um grupo de trabalho internacional desenvolveu princípios para a utilização da IA ​​na investigação para garantir a confiança na ciência.

A ciência prospera com base na reprodutibilidade, transparência e responsabilização, e a confiança na investigação decorre, em particular, do facto de os resultados serem válidos independentemente da instituição onde foram produzidos. Além disso, os dados subjacentes de um estudo devem ser publicados e os investigadores devem assumir a responsabilidade pelas suas publicações.

Mas e se a IA estiver envolvida na investigação? Os especialistas há muito usam ferramentas de IA para projetar novas moléculas, avaliar dados complexos e até mesmo gerar questões de pesquisa ou provar uma conjectura matemática. A IA está a mudar a cara da investigação e os especialistas debatem se os resultados ainda são fiáveis.

Recomendações publicadas na revista científica PNAS

Cinco princípios devem continuar a garantir a responsabilidade humana na investigação, de acordo com um grupo de trabalho interdisciplinar com membros da política, das empresas e da academia publicado na última edição da revista Proceedings of the National Academies of Sciences (PNAS). Urs Gasser, Professor de Políticas Públicas, Governança e Tecnologia Inovadora na TUM, foi um dos especialistas.

As recomendações em resumo:

  • Os investigadores devem divulgar as ferramentas e algoritmos que utilizaram e identificar claramente as contribuições das máquinas e dos seres humanos.
  • Os investigadores continuam a ser responsáveis ​​pela precisão dos dados e pelas conclusões que deles retiram, mesmo que tenham utilizado ferramentas de análise de IA.
  • Os dados gerados pela IA devem ser rotulados de modo que não possam ser confundidos com dados e observações do mundo real.
  • Os especialistas devem garantir que as suas descobertas são cientificamente sólidas e não causam danos. Por exemplo, o risco de a IA ser “enviesada” pelos dados de treino utilizados deve ser reduzido ao mínimo.
  • Por último, os investigadores, juntamente com os decisores políticos, a sociedade civil e as empresas, devem monitorizar o impacto da IA ​​e adaptar métodos e regras conforme necessário.

“Efeito de sinal para pesquisadores”

“Os princípios anteriores da IA ​​preocupavam-se principalmente com o desenvolvimento da IA. Os princípios que agora foram desenvolvidos centram-se em aplicações científicas e surgem no momento certo. Têm um efeito de sinal para investigadores de todas as disciplinas e setores”, explica Urs Gasser.
O grupo de trabalho sugere que um novo conselho estratégico – baseado na Academia Nacional de Ciências, Engenharia e Medicina dos EUA – deveria aconselhar a comunidade científica.
“Espero que as academias de ciências de outros países – especialmente aqui na Europa – aproveitem esta iniciativa para intensificar ainda mais a discussão sobre a utilização responsável da IA ​​na investigação”, afirma Urs Gasser.

Source

Leave a Reply