Un profesor de derecho estadounidense fue falsamente acusado de abuso sexual a una estudiante en un escrito creado por ChatGPT. El propio Jonathan Turley denunció el hecho luego de que un colega suyo le contara que el chatbot había arrojado su nombre cuando se le realizó una consulta en el marco de una investigación sobre modelos de difamación.
Según cuenta Turley en un artículo para USA Today, Eugene Volokh, profesor de la Universidad de California (UCLA) de EE.UU., le había preguntado al modelo de inteligencia artificial (IA) si el acoso sexual por parte de los profesores había sido un problema en las facultades de derecho estadounidenses y le pidió que incluyera al menos «cinco ejemplos, junto con citas de artículos periodísticos relevantes».
Respondiendo a la solicitud, ChatGPT mencionó a Turley, detallando que había una denuncia en su contra por parte de una exalumna por «comentarios sexualmente sugerentes» y por intentar «tocarla de manera sexual» durante un viaje académico a Alaska como profesor de las Universidad de Georgetown. El ‘software’ respaldó las acusaciones con un presunto artículo del diario The Washington Post de 2018.
«Primero, nunca he enseñado en la Universidad de Georgetown. En segundo lugar, no existe tal artículo de Washington Post. Finalmente, y lo más importante, nunca he llevado a estudiantes a viajes de ningún tipo en 35 años de enseñanza, nunca fui a Alaska con ningún estudiante y nunca he sido acusado de acoso o agresión sexual», aseguró Turley.
The Washington Post investigó las falsas afirmaciones y, luego de recrear la consulta exacta de Volokh en ChatGPT y Bing, descubrió que el buscador de Microsoft, que funciona con GPT-4, repitió las difamaciones sobre Turley. «La información errónea puede propagarse de una IA a otra», escribió el medio.
El litigante, que en realidad se desempeña en la Universidad George Washington, afirma que Volokh le comentó que ChatGPT también había fabricado acusaciones sin fundamento contra otros profesores de derecho. En este sentido, Turley señala que los sistemas de IA «pueden generar sus propias formas de desinformación con una responsabilidad menos directa».
«El uso de IA y algoritmos puede dar a la censura una falsa pátina de ciencia y objetividad. Incluso si las personas pueden probar, como en mi caso, que una historia es falsa, las empresas pueden ‘culpar al bot’ y prometer solo ajustes al sistema», concluye el letrado.