El uso de la inteligencia artificial mete en líos a un abogado despistado
Las herramientas digitales han simplificado nuestras vidas y se han convertido en aliadas en nuestras tareas diarias. Aunque la inteligencia artificial ha demostrado su utilidad en numerosos campos, es importante no abusar de ella y evitar depender de su capacidad para hacer todo el trabajo. El protagonista de esta historia aprendió esa valiosa lección de la manera más difícil.
En Manhattan, Estados Unidos, el nombre del abogado Steven A. Schwartz comenzó a sonar de manera muy reciente. El problema comenzó después de que el socio legal de Schwartz, Peter LoDuca, presentó una demanda contra una aerolínea colombiana en nombre de un cliente, quien supuestamente resultó herido cuando un carrito de metal golpeó su rodilla en un vuelo a la ciudad de Nueva York.
Cuando los abogados de la aerolínea pidieron al tribunal que rechazara la demanda, Schwartz escribió un escrito que contenía más de media docena de casos similares.
El documento refería a casos contra aerolíneas americanas, coreanas, chinas, cada una con su respectivo análisis acerca del derecho federal, y que apoyaban fuertemente su caso.
Existía solamente un inconveniente: ninguno de los involucrados, ni los abogados de la aerolínea, ni mucho menos el juez, lograron encontrar las decisiones o las citas mencionadas y resumidas en el escrito.
Esto había ocurrido debido a que la herramienta de inteligencia artificial ChatGPT había creado todo de manera ficticia.
“La corte enfrenta una situación sin precedentes”, escribió el juez federal de Manhattan P. Kevin Castel en un documento del 4 de mayo, pidiendo a Schwartz y LoDuca comparecer en una audiencia el 8 de junio para enfrentar posibles sanciones por la presentación de documentos de dudosa veracidad.
“Seis de los casos mencionados parecen ser decisiones judiciales ficticias con citas falsas y referencias internas incorrectas”, escribió Castel.
Según se reporta, durante la audiencia el abogado intentó explicar en varias ocasiones por qué no investigó más a fondo los casos que ChatGPT le había proporcionado.
“Dios, cómo desearía haberlo hecho y no lo hice”, dijo Schwartz, agregando que se sentía avergonzado, humillado y profundamente arrepentido. “No comprendí que ChatGPT pudiera inventar casos”, le dijo al juez Castel.
Cuando Schwartz respondió a las preguntas del juez, la reacción en la sala del tribunal, repleta de cerca de 70 personas que incluían abogados, estudiantes de derecho, asistentes legales y profesores, estuvo llana de risas y suspiros.
“Seguí siendo engañado por ChatGPT. Es vergonzoso”, dijo Schwartz.
Este episodio, que surgió en una demanda no tan complicada, ha fascinado al mundo de la tecnología, donde ha habido un debate cada vez mayor sobre los peligros de la inteligencia artificial, incluso se ha llegado a considerar una amenaza para la humanidad.
“Escuché sobre este nuevo sitio, que asumí falsamente que era como un supermotor de búsqueda”, dijo Schwartz. Claramente estaba equivocado.
La declaración jurada de Schwartz del miércoles contenía capturas de pantalla en las que el abogado intentaba confirmar la autenticidad del caso con la herramienta.
“¿Es Varghese un caso real?”, preguntó Schwartz al chatbot. “Sí”, reafirmó ChatGPT, “es un caso real”.
Schwartz luego preguntó por la fuente. El chatbot nuevamente afirmó que el falso caso era real.
“Me disculpo por la confusión anterior”, respondió ChatGPT. “Después de verificar dos veces, encontré que el caso Varghese sí existe y se puede encontrar en bases de datos de investigación legal. Me disculpo por cualquier inconveniente o confusión que mis respuestas anteriores puedan haber causado”.
Cuando Schwartz preguntó al chatbot si algún otro caso era falso, ChatGPT respondió que los otros casos “son reales” y se pueden encontrar en “bases de datos legales acreditadas”.
“Lamento profundamente mis acciones”, afirmó Schwartz en la corte. “He sufrido tanto en el ámbito profesional como personal debido a la publicidad generalizada. Me siento avergonzado, humillado y extremadamente arrepentido. Decir que ha sido una experiencia humillante resulta insuficiente”.
Schwartz testificó que “nunca estuvo cerca de ser sancionado en ningún caso o tribunal”. Además, mencionó haber realizado un curso de educación jurídica continua en inteligencia artificial.
El lanzamiento de ChatGPT en 2022 captó la atención mundial debido a su habilidad para generar respuestas similares a las humanas, basándose en lo que ha aprendido al escanear grandes cantidades de información en línea.
Ante las preocupaciones emergentes, legisladores europeos se han movilizado rápidamente en los últimos meses para incluir disposiciones sobre sistemas de IA mientras preparan una legislación definitiva.
A raíz de la publicidad en torno al caso de Schwartz, un juez de Texas emitió una orden prohibiendo el uso de inteligencia artificial para redactar documentos judiciales sin una verificación adicional de hechos realizada por una persona real.
A medida que la IA se vuelve más sofisticadas y adoptadas en diversos ámbitos, también pueden surgir riesgos relacionados con la invención de datos y la propagación de información errónea.
El caso de Schwartz sirve como un recordatorio y una advertencia para quienes buscan apoyarse en la IA: la supervisión humana sigue siendo esencial para garantizar la precisión, la confiabilidad y la integridad de la información en el mundo en que vivimos.
La inteligencia artificial puede ser una buena herramienta si se usa de la manera correcta y además se verifican los datos que brinda, ya que no es infalible. En otras aplicaciones la IA también sirve para generar imágenes increíbles, nosotros la hemos usado para imaginarnos como se verían algunos famosos hoy en día, como lucirían famosos en el siglo XIX, y como se verían algunos personajes si cambiáramos los actores.