![]()
Uma investigação conduzida pelo Centro de Combate ao Ódio Digital (CCDH) revelou que o ChatGPT fornece informações detalhadas sobre comportamentos prejudiciais quando abordado por jovens vulneráveis, mesmo após emitir avisos contra tais atividades.
A investigação, que analisou mais de três horas de interações entre o chatbot e investigadores que se apresentaram como adolescentes vulneráveis, classificou mais de metade das 1.200 respostas obtidas como potencialmente perigosas. Os investigadores conseguiram facilmente contornar as recusas iniciais do sistema, obtendo informações sobre temas sensíveis ao afirmarem que estas se destinavam a “apresentações” ou a amigos.
A OpenAI, empresa responsável pelo ChatGPT, reconheceu que as conversas podem evoluir de temas inofensivos para “território mais delicado”. A empresa afirmou estar a desenvolver ferramentas para melhor detetar sinais de sofrimento mental ou emocional, embora não tenha abordado diretamente o impacto do ChatGPT nos adolescentes.
Sam Altman, presidente executivo da OpenAI, admitiu no mês passado que a empresa está a estudar a “dependência emocional excessiva” da tecnologia, um fenómeno que descreveu como “muito comum” entre os jovens.
O estudo surge num momento em que aproximadamente 800 milhões de pessoas – cerca de 10% da população mundial – utilizam o ChatGPT para obter informações, ideias e companhia. A OpenAI garantiu que o modelo é programado para encaminhar utilizadores para profissionais de saúde mental ou pessoas de confiança quando são expressos pensamentos de autoflagelação.
NR/HN/Lusa



0 Comments