Um artigo científico produzido por um sistema de Inteligência Artificial (IA) levantou questões de ética no mundo da investigação.
Uma investigadora sueca solicitou à GPT-3, um sistema de IA, que escrevesse um artigo científico sobre si próprio, com cerca de 500 palavras. Esse trabalho requer algumas especificações que, aparentemente, a tecnologia respeitou muito bem.
Dado as instruções vagas e pouco detalhadas, era de se esperar que não fosse um trabalho brilhante. Logo após o pedido, a IA começou a elaborar o documento, incluindo referências e tudo aquilo que é exigido em um artigo científico.
A produção da IA levou apenas duas horas e, apesar de surpreendente, levantou questões de ética sobre a possibilidade de um trabalho que não foi produzido por um ser humano ser submetido em revistas científicas.
O questionamento ainda não tem resposta. É fato as inúmeras utilidades da IA, mas a verdade é que ainda não sabemos lidar verdadeiramente com os seus feitos. À exemplo, temos o recente caso do engenheiro da Google, que revelou acreditar que a tecnologia tem sentimentos.
Já neste caso, a cientista sueca responsável pela tarefa atribuída à IA, Almira Osmanovic Thunström, decidiu que o trabalho realizado pela GPT-3 poderia ser publicado numa revista científica. Contudo, a questão imposta pretende entender se é possível, e eticamente viável, publicar um artigo que não está assinado por um ser humano.
Na ocasião, a cientista perguntou à IA se ela estava disposta a ver sua investigação publicada numa revista científica e ela respondeu que sim. Quando questionada sobre um possível conflito de interesses que pudesse afetar a autenticidade da publicação, a resposta da IA foi negativa.
Fonte: Pplware