Uma pesquisa recente realizada pela Universidade da Carolina do Norte em Chapel Hill, em colaboração com o Allen Institute for AI, revelou que o chatbot mais recente da OpenAI, o GPT-4o, supera especialistas humanos em raciocínio ético e aconselhamento, provocando amplas discussões sobre as aplicações da inteligência artificial (IA) no campo do raciocínio moral.
A equipe de pesquisa realizou dois experimentos comparativos para examinar as diferenças nas capacidades de raciocínio moral entre o modelo GPT e os participantes humanos. No primeiro experimento, 501 adultos americanos compararam as explicações éticas fornecidas pelo modelo GPT-3.5-turbo com aquelas dadas por humanos. Os resultados mostraram que as explicações do GPT eram consideradas mais racionais, confiáveis e cuidadosas, com os participantes avaliando as análises da IA como mais fidedignas do que as de especialistas humanos. Embora as diferenças tenham sido mínimas, isso sugere que o desempenho da IA em raciocínio moral pode ser comparável ao dos humanos.
No segundo experimento, as sugestões geradas pelo GPT-4o foram comparadas às de Kwame Anthony Appiah, renomado ético e colunista da "Ethicist" no The New York Times. Em 50 dilemas éticos avaliados pela qualidade do aconselhamento, o GPT-4o recebeu notas mais altas do que os especialistas humanos em quase todos os critérios. Os participantes consideraram de forma esmagadora as recomendações geradas pela IA como mais moralmente precisas, confiáveis e reflexivas. A única área sem diferença significativa foi na percepção de nuances, onde tanto a IA quanto os humanos tiveram desempenho similar.
Os pesquisadores destacam que esses resultados sugerem que o GPT-4o passou no "Teste de Turing Moral Comparativo" (cMTT). Análises adicionais indicam que o GPT-4o utiliza uma linguagem mais moral e positiva ao oferecer conselhos do que os especialistas humanos, o que pode contribuir para suas classificações mais altas. No entanto, esse não é o único fator; estudos futuros devem investigar ainda mais o potencial da IA em raciocínio moral.
É importante observar que essa pesquisa foi limitada a participantes americanos, o que ressalta a necessidade de estudos futuros que explorem perspectivas sobre o raciocínio moral da IA em diferentes contextos culturais. No entanto, essas descobertas fornecem um forte suporte para o papel da IA na tomada de decisões morais, podendo levar a discussões aprofundadas sobre as responsabilidades éticas e a regulação da IA.
À medida que a tecnologia de IA avança, suas aplicações no raciocínio moral se tornarão cada vez mais comuns. A capacidade de tomada de decisão ética da IA impactará significativamente diversos domínios, incluindo diagnósticos médicos, veículos autônomos e moderação de conteúdo em redes sociais. Portanto, é essencial abordar as implicações éticas da IA e estabelecer políticas e padrões adequados para garantir sua segurança e confiabilidade.