Durante la audiencia, la Cuarta Sala Constitucional de Santa Cruz recurrió a la aplicación de inteligencia artificial ChatGPT para discutir los estándares legales para definir los reclamos de privacidad de los periodistas en el marco de los derechos humanos.

La demandante en ese caso, una mujer que en marzo pidió a los reporteros que publicaran fotos en las que aparecía siendo agredida por un destacado abogado, ahora quiere que se eliminen esas fotos, explicó el abogado. Asociación de Periodistas, Raquel Guerrero. Durante la audiencia virtual, el tribunal compartió en la pantalla las presentaciones de los miembros de ChatGTP con respecto a sus derechos sobre las imágenes distribuidas en la red social.

Durante la audiencia, ChatGPT registró los siguientes problemas:

  • ¿Cuál es el interés legítimo del público si los medios de comunicación publican imágenes de partes del cuerpo de una mujer en redes sociales como Facebook sin su consentimiento y/o permiso?
  • ¿Es posible revisar una orden judicial para la eliminación o remoción de imágenes, videos e imágenes de partes del cuerpo femenino en Facebook sin consentimiento? Garantizado para violar el derecho a saber? El abogado Guerrero señaló que las consultas se dirigían a ChatGPT, que dictaba las respuestas.

Señaló que en la consulta de AI no se tuvo en cuenta que la propia mujer había accedido y pedido que se publicaran las fotos, así como que los periodistas se cuidaron de incluir solo fotos de lesiones y daños. No puede revelar la identidad de la víctima. Si bien el uso de la inteligencia artificial no está contemplado en el proceso constitucional, según los abogados de Guerrero, el uso de la inteligencia artificial tiene sus aspectos positivos y negativos.

Dijo que el uso de la inteligencia artificial como “apoyo” de asesoramiento a jueces y abogados fue positivo, al igual que Google, pero que en este caso creía que el problema estaba resuelto. Los abogados calificaron de erróneas las sentencias judiciales dado que se emitieron a pedido de las víctimas, entre otras denuncias de abuso. Sin embargo, anunció que los periodistas respetarán la decisión de borrar las imágenes. ChatGPT no se recomienda como base para decisiones legales.

En este caso, ChatGPT preguntó si podría usarse como base para una decisión judicial, y aquí está la respuesta:

No, ChatGPT no se puede utilizar como base para decisiones legales. Si bien ChatGPT es una herramienta útil para responder preguntas y proporcionar información, no reemplaza el conocimiento humano, la comprensión legal y el análisis crítico. Los fallos de los tribunales se basan en la interpretación de la ley, los hechos del caso, la aplicación de precedentes y doctrinas relacionadas. Estas decisiones requieren un análisis complejo, que incluye la consideración de muchos factores y la aplicación de la lógica, el razonamiento y el conocimiento legal. ChatGPT no puede considerar todos los aspectos relevantes de un caso y, por lo tanto, no puede brindar asesoramiento legal preciso. Por lo tanto, es imperativo confiar en la experiencia y el conocimiento de abogados, jueces y otros profesionales del derecho para tomar decisiones legales informadas.

Con información de: Erbol.

Deja un comentario