
Cada pocas semanas, parece que hay un nuevo titular sobre que un abogado entra problema Para destinar presentaciones que contienen, en palabras de un árbitro, “investigación falsa generada por IA”. Los detalles varían, pero la recorrido de transmisión es la misma: un abogado recurre a un maniquí de idioma ancho (LLM) como ChatGPT para ayudarlos con la investigación admitido (o peor, la escritura), el LLM alucina los casos que no existen, y el abogado no es el más sabio hasta que el árbitro u consejo opuesto señala su error. En algunos casos, incluida una demanda de aviación de 2023, abogados han tenido que abonar multas para destinar presentaciones con alucinaciones generadas por IA. Entonces, ¿por qué no se han detenido?
La respuesta se reduce principalmente al tiempo, y la forma en que la IA se ha convertido en casi todas las profesiones. Las bases de datos de investigación admitido como Lexisnexis y Westlaw tienen integraciones de IA ahora. Para los abogados que hacen malabares con grandes casos, AI puede parecer un asistente increíblemente eficaz. La mayoría de los abogados no necesariamente usan ChatGPT para escribir sus presentaciones, pero lo usan cada vez más y otros LLM para la investigación. Sin retención, muchos de estos abogados, como gran parte del sabido, no entienden exactamente qué son los LLM o cómo funcionan. Un abogado que era sancionado En 2023 dijo que pensaba que ChatGPT era un “súper motor de búsqueda”. Se necesitó destinar una presentación con citas falsas para revelar que es más como un creador de frase casual, una que podría brindarle información correcta o tonterías convincentemente redactadas.
Andrew Perlman, decano de la Atribución de Derecho de la Universidad de Suffolk, argumenta que muchos abogados están utilizando herramientas de IA sin incidentes, y los que quedan atrapados con citas falsas son atípicos. “Creo que lo que estamos viendo ahora, aunque estos problemas de ofuscación son reales, y los abogados tienen que tomarlo muy en serio y tener cuidado al respecto, no significa que estas herramientas no tengan enormes beneficios posibles y casos de uso para la prestación de servicios legales”, dijo Perlman. Las bases de datos legales y los sistemas de investigación como Westlaw están incorporando servicios de IA.
De hecho, el 63 por ciento de los abogados encuestado por Thomson Reuters En 2024 dijo que han usado IA en el pasado, y el 12 por ciento dijo que la usan regularmente. Los encuestados dijeron que usan AI para escribir resúmenes de la justicia e investigar “justicia, estatutos, formularios o jerigonza de muestra para pedidos”. Los abogados encuestados por Thomson Reuters lo ven como una útil de peculio de tiempo, y la centro de los encuestados dijeron que “explorar el potencial para implementar la IA” en el trabajo es su más entrada prioridad. “El papel de un buen abogado es como un” asesor de confianza “, no como productor de documentos”, dijo un encuestado.
Pero como han demostrado muchos ejemplos recientes, los documentos producidos por la IA no siempre son precisos, y en algunos casos no son reales en categórico.
En un caso fresco de parada perfil, los abogados del periodista Tim Burke, quien fue arrestado por divulgar imágenes de Noticiero de Fox sin ventilación en 2024, presentaron una moción para desestimar el caso en su contra por la Primera Resarcimiento. Posteriormente de descubrir que la presentación incluyó “tergiversaciones significativas y citas erróneas de la justicia e historia supuestamente pertinentes”, la jueza Kathryn Kimball Mizelle, del Distrito Medio de Florida, ordenó que la moción se vea afectada por el registro del caso. Mizelle encontró nueve alucinaciones en el documento, Según el Tampa Bay Times.
Mizelle finalmente dejó que los abogados de Burke, Mark Rasch y Michael Maddux, presentaran una nueva moción. En una presentación separada que explica los errores, Rasch escribió que “asume la responsabilidad monopolio y monopolio de estos errores”. Rasch dijo que utilizó la función de “investigación profunda” en ChatGpt Pro, que El borde ha probado previamente con resultados mixtos, así como la función de IA de Westlaw.
Rasch no está solo. Abogados que representan a Anthrope recientemente Admitió activo usado el Claude AI de la compañía Para ayudar a escribir una afirmación de testigos expertos presentados como parte de la demanda por infracción de derechos de autor presentados contra Anthrope por los editores de música. Esa presentación incluyó una cita con un “título inexacto y autores inexactos”. En diciembre pasado, el hábil en desinformación Jeff Hancock admitió que usó ChatGPT para ayudar a organizar las citas en una afirmación que presentó en apoyo de una ley de Minnesota que regula el uso de defectos profundos. La presentación de Hancock incluyó “Dos errores de cita, conocidos popularmente como ‘alucinaciones'”, y los autores enumerados incorrectamente para otra cita.
Estos documentos, de hecho, son importantes, al menos a los fanales de los jueces. En un caso fresco, un árbitro de California que presidió un caso contra la lechería estatal fue inicialmente influido por argumentos en un breve, solo para descubrir que la justicia citada estaba completamente inventada. “Leí su breve, fue persuadido (o al menos intrigado) por las autoridades que citaron, y buscó las decisiones para instruirse más sobre ellos, solo para descubrir que no existían”, escribió el árbitro Michael Wilner.
Perlman dijo que hay varias formas menos arriesgadas en que los abogados usan IA generativa en su trabajo, incluida la búsqueda de información en grandes tramos de documentos de descubrimiento, revisando informes o presentaciones, y una copia de ideas sobre posibles argumentos o posibles puntos de clarividencia opuestos. “Creo que en casi todas las tareas, hay formas en que la IA generativa puede ser útil, no un sustituto del proceso de los abogados, no un sustituto de la experiencia que los abogados aportan a la mesa, sino para complementar lo que hacen los abogados y les permite hacer su trabajo mejor, más rápido y más módico”, dijo Perlman.
Pero como cualquier persona que use herramientas de IA, los abogados que confían en ellos para ayudar con la investigación admitido y la escritura deben tener cuidado de probar el trabajo que producen, dijo Perlman. Parte del problema es que los abogados a menudo se encuentran con poco tiempo, un problema que, según él, existía ayer de que LLMS entrara en campo. “Incluso ayer de la aparición de IA generativa, los abogados presentarían documentos con citas que positivamente no abordaron el problema que afirmaron chocar”, dijo Perlman. “Era solo un tipo de problema diferente. A veces, cuando los abogados son apresurados, insertan citas, no las verifican adecuadamente; positivamente no ven si el caso ha sido anulado o anulado”. (Dicho esto, los casos al menos típicamente existen).
Otro problema más insidioso es el hecho de que los abogados, como otros que usan LLM para ayudar con la investigación y la escritura, confían demasiado en lo que la IA produce. “Creo que muchas personas están en una sensación de comodidad con la producción, porque a primera clarividencia parece estar tan adecuadamente elaborada”, dijo Perlman.
Alexander Kolodin, abogado electoral y representante estatal republicano en Arizona, dijo que comercio a ChatGPT como asociado de nivel junior. Todavía ha usado ChatGPT para ayudar a escribir fuero. En 2024, incluyó texto de IA en parte de un tesina de ley sobre Deepfakes, que el LLM proporciona la “definición de remisión” de lo que son los defectos y luego “yo, el humano, agregué las protecciones para los derechos humanos, cosas como esa excluye la comedia, la sátira, la crítica, la expresión artística, ese tipo de cosas”, Kolodin dijo El celador En el momento. Kolodin dijo que “puede activo discutido” su uso de ChatGPT con el principal copatrocinador demócrata del tesina de ley, pero por lo demás quería que fuera “un huevo de Pascua” en el tesina de ley. El tesina de ley aprobó la ley.
Kolodin – quien era Sancionado por el Colegio de Abogados del Estado de Arizona en 2020 Por su décimo en las demandas que desafían el resultado de las elecciones de 2020, todavía ha utilizado ChatGPT para escribir los primeros borradores de enmiendas y dijo El borde Él todavía lo usa para la investigación admitido. Para evitar el problema de la ofuscación, dijo, solo verifica las citas para cerciorarse de que sean reales.
“No solo envías un producto de trabajo de un asociado junior sin probar las citas”, dijo Kolodin. “No solo las máquinas alucinan; un asociado junior podría ojear el caso mal, en existencia no representa la propuesta citada de todos modos, lo que sea. Todavía tienes que verificarlo, pero tienes que hacerlo con un asociado de todos modos, a menos que tuvieran harto experiencia”.
Kolodin dijo que usa la útil de “investigación profunda” Pro de ChatGPT y la útil LexisNexis AI. Al igual que Westlaw, Lexisnexis es una útil de investigación admitido utilizada principalmente por los abogados. Kolodin dijo que en su experiencia, tiene una tasa de ofuscación más entrada que ChatGPT, que según él “ha bajado sustancialmente durante el año pasado”.
El uso de IA entre los abogados se ha vuelto tan frecuente que en 2024, la American Bar Association emitió su primera callejero Sobre el uso de los abogados de LLM y otras herramientas de IA.
Los abogados que usan herramientas de IA “tienen un deber de competencia, incluido el mantenimiento de la competencia tecnológica relevante, lo que requiere una comprensión de la naturaleza en crecimiento” de la IA generativa, la opinión recitación. La callejero aconseja a los abogados que “adquieran una comprensión normal de los beneficios y riesgos de las herramientas GAI” que usan, o, en otras palabras, no asumen que un LLM es un “motor de búsqueda súper”. Los abogados todavía deben valorar los riesgos de confidencialidad de ingresar información relacionada con sus casos en LLMS y considerar si informa a sus clientes sobre su uso de LLM y otras herramientas de IA, afirma.
Perlman es ilusionado en el uso de la IA por parte de los abogados. “Creo que la IA generativa será la tecnología más impactante que la profesión admitido haya trillado y que se paciencia que los abogados usen estas herramientas en el futuro”, dijo. “Creo que en algún momento, dejaremos de preocuparnos por la competencia de los abogados que usan estas herramientas y comenzaremos a preocuparse por la competencia de los abogados que no lo hacen”.
Otros, incluido uno de los jueces que sancionaron a los abogados por presentar una presentación llena de alucinaciones generadas por IA, son más escépticos. “Incluso con avances recientes”, escribió Wilner, “ningún abogado razonablemente competente debe aventajar la investigación y la escritura de esta tecnología, particularmente sin ningún intento de probar la precisión de ese material”.