ChatGPT se puede usar en derecho para la investigación, redacción de borradores de documentos legales y para resumir información, actuando como un asistente para abogados, estudiantes y ciudadanos. Sin embargo, no ofrece un asesoramiento legal fiable por sí solo, debiéndose verificar siempre la información generada, ya que tiene limitaciones significativas en cuanto a la interpretación más compleja y la precisión.
A día de hoy la IA no puede reemplazar el factor humano en la toma de decisiones en el ámbito de la justicia. No tiene un conocimiento legal o una capacitación específica suficiente para interpretar casos complejos o tomar decisiones. En este sentido, toda la información generada por la IA debe ser revisada y verificada por un profesional, ya que no es necesariamente veraz ni completa.
La confiabilidad de la inteligencia artificial en la investigación jurídica está directamente relacionada con el entrenamiento adecuado del modelo. La IA necesita ser entrenada con datos relevantes y representativos para ser efectiva en su aplicación. Si el modelo de IA no ha sido entrenado lo suficiente o de la manera correcta, su confiabilidad puede verse comprometida.
Como modelo de lenguaje ChatGPT no tiene una comprensión profunda de los conceptos legales y la jurisprudencia, por tanto, frecuentemente, no puede proporcionar respuestas precisas y relevantes a preguntas legales específicas y complejas.
Además, ChatGPT no es un abogado o un experto en leyes, lo que significa que no puede proporcionar asesoramiento legal profesional. Los profesionales del derecho tienen la responsabilidad ética y legal de brindar asesoramiento y representación precisos y confiables, algo que ChatGPT no puede hacer.
Otra circunstancia a tener muy en cuenta en el uso de ChatGPT es la seguridad de los datos privados del ciudadano que acude a consultar. La información ingresada en ChatGPT podría ser almacenada o utilizada para otros fines.
Chat GPT, por tanto, puede ser una herramienta útil tanto para el ciudadano como para el profesional jurídico, sin embargo debe usarse como un copiloto para mejorar la eficiencia, no como un sustituto de la experiencia, el juicio humano y la responsabilidad profesional.
La IA nunca alcanzará los complejos niveles de atención empática brindados por una persona. Es un complemento que, en modo alguno, puede sustituir a un profesional. Hay que utilizarla con sensatez, no confundiendo complejidad con conciencia, lenguaje con pensamiento, ni cálculo con comprensión.