A principios de este mes, Michael Best & Friedrich anunció que Sarah Alt ocuparía el cargo de primera directora de procesos y AI de la firma, lo que convierte a la empresa en una de las primeras en tener un rol enfocado en AI en su equipo directivo.

Anteriormente, Alt trabajaba como directora de negocios de la firma, aprovechando su experiencia como tecnóloga centrada en las implicaciones legales y éticas de la inteligencia artificial. Para Michael Best y sus clientes, este nuevo rol no es simplemente una necesidad práctica, sino también una declaración: les importa la inteligencia artificial y cómo la utilizan sus clientes, dijo ella.

Alt habló con Legaltech News sobre los problemas legales más urgentes para los clientes que utilizan la inteligencia artificial, la decisión de su firma de bloquear el uso interno de ChatGPT y lo que su bola de cristal dice sobre la futura regulación de la IA.

La siguiente conversación ha sido editada por motivos de longitud y claridad.

LTN: ¿En qué consiste tu cargo como directora de procesos y AI?

Sarah Alt: Este cargo representa una progresión de roles y responsabilidades a partir de mi cargo anterior como directora de procesos de negocios de la firma.

[Este cargo] representa un enfoque y una respuesta a nuestros clientes de que "te escuchamos", de que "[la IA] es importante para ti", y así no solo ayuda a hacer lo que tenemos que hacer de manera responsable para la inteligencia artificial dentro de la firma, sino también [desarrolla estrategias en torno a] cómo guiamos a nuestros clientes.

[Dado] que Michael Best es más que una simple firma de abogados y también tenemos una práctica de consultoría, nos brinda la capacidad, como en mi caso, de ser una tecnóloga y no una abogada, para poder brindar orientación [tecnológica], especialmente sobre el uso ético y responsable, que es donde radica mi especialidad en la inteligencia artificial.

¿Qué es lo más emocionante de ser un cargo de AI y tecnólogo en una firma de abogados en este momento?

Diría que la parte más emocionante de mi cargo es esa capacidad de responder a la solicitud de nuestros clientes de que necesitan orientación [sobre el uso de nuevas tecnologías de IA], incluso cuando no hay mucha legislación y regulación [que les ayude] a comprender cómo navegar [el panorama legal de la IA] y cómo gobernarse en función de su perfil de riesgo. Porque, al igual que lo hacemos con el asesoramiento legal, nos encontramos con el cliente donde están en términos de sus necesidades.

¿Cómo se ve eso?

[Nos preguntamos]: ¿Dónde necesitas estar en el espectro de aceptación o aversión al riesgo en términos de IA? [Luego] nos ajustamos a eso y decimos, si eres adoptante temprano o abierto, aquí está la orientación que debemos darte. Pero, si te encuentras en el otro extremo del espectro, si eres reacio al riesgo [con respecto a la IA], también está bien. Si necesitas proteger ciertos activos, aquí está cómo podemos guiarte en la protección de esos activos.

Así que la variedad y la increíble oportunidad de trabajar junto a abogados y asesores legales es lo que hace que esto sea realmente emocionante.

Mientras tanto, ¿cuál es un desafío único del cargo?

Es curioso porque es algo ambiguo... lo que hace que esto sea emocionante también es lo que lo convierte en un desafío único.

Simplemente mantenerse al día con toda la legislación y hacia dónde se dirigen las cosas en este momento [en cuanto a regulaciones de IA], mantenerse al tanto de las tendencias de estas increíbles tecnologías que se pueden utilizar, y luego poder seguir evolucionando [mientras se comprende] qué deben ser las pautas de uso ético y responsable para nuestros clientes. Eso probablemente será un desafío durante un tiempo hasta que todos nos establezcamos en una práctica lo suficientemente buena de lo que debemos esperar de nosotros mismos [y] nuestros proveedores y suministradores de IA en general.

Sé que Michael Best ha prohibido explícitamente el uso de ChatGPT de código abierto internamente. ¿Por qué es eso?

La razón de bloquearlo es nuestra postura sobre nuestra responsabilidad de confidencialidad y protección de los datos de nuestros clientes.

[Además], tenemos clientes que también están en el espectro de bloquear [ChatGPT dentro de sus organizaciones], y esperan que su asesor legal haga lo mismo. Respondimos a eso de manera similar. Ayuda a mantener esa confianza y confidencialidad en los datos de nuestros clientes.

Lo que este bloque de [ChatGPT] también nos brindó es el espacio para establecer un entorno protegido donde podemos aprovechar las capacidades de ChatGPT y otros modelos GPT sin el riesgo adicional de que los datos regresen a los modelos de [acceso público]. También nos ha brindado la atención necesaria para enfocarnos en las relaciones que tenemos con proveedores que están incorporando capacidades de la API de ChatGPT a través de sus aplicaciones. Entonces lo que nos permite hacer es aprovechar el poder de [la tecnología] sin necesidad de que esté en el modelo de [acceso público].

¿Cuál es el problema legal principal que viene a la mente cuando piensas en cómo tus clientes utilizan la inteligencia artificial hoy en día?

Me preocupa que [las organizaciones] a veces olviden que hay inteligencia artificial dentro de lo que están haciendo... como [la contratación] y que ya existen leyes que se aplican a esas [actividades], como las leyes contra la discriminación.

Me preocupa las consecuencias legales no intencionadas de la invisibilidad o la falta de transparencia o la explotación de lo que podría estar sucediendo dentro de [una práctica que utiliza IA], porque no te lo dijeron o no te capacitaron.

¿Cómo ves que se desarrolle la regulación de la inteligencia artificial en los próximos meses o en un futuro cercano? ¿Serán estatutos estatales, leyes federales, presión internacional o algo completamente distinto?

Es especulativo, pero creo que un mecanismo de respaldo para la regulación de la IA será una especie de "colcha de retazos" estado por estado, al igual que sucede con la protección de datos. No todos dirían que es buena idea comparar la regulación de la IA con la protección de datos, pero sea justo o no... la ley estadounidense sigue en cierta medida ese tipo de modelo.

Solo digo "mecanismo de respaldo" porque creo que aprendimos de las complicaciones de la estrategia de protección de datos, lo difícil que es mantenerse al día con todos los estados promulgando sus propias leyes, y hasta cierto punto, estamos viendo que las leyes estatales de protección de datos recientes incluyen regulaciones de IA en sus leyes de protección de datos.

No diría que es la única opción. Espero que hayamos aprendido y evolucionado desde el Reglamento General de Protección de Datos hasta la Ley de Privacidad del Consumidor de California y que podamos hacer las cosas mejor o de manera diferente... y promover la regulación de manera más agresiva a nivel federal.