Biblioteca >

Navegando por las normas del Colegio de Abogados sobre anuncios generados por IA (+ una visión general de los 50 estados)

Leigh Ebrom

Publicado:

Mapa de los Estados Unidos elaborado por la NASA, que muestra el país desde el espacio.

El contenido generado por IA es rápido, asequible y, a menudo, sorprendentemente persuasivo. En un mercado legal competitivo, esa es una combinación tentadora. Ya sea que esté redactando titulares PPC, creando gráficos con testimonios o dejando que una herramienta GPT redacte su próximo cartel publicitario, la IA generativa puede ayudarle a avanzar rápidamente.

Pero actuar con rapidez puede ser arriesgado, especialmente en una profesión en la que siguen existiendo obligaciones éticas, por muy sofisticadas que sean las herramientas que se utilicen.

Mientras que la IA generativa transforma la forma en que creamos y ofrecemos anuncios, muchos colegios de abogados estatales aún están tratando de averiguar cómo responder. Esto significa que el riesgo a menudo recae directamente sobre su bufete. Si comercializa servicios jurídicos utilizando IA (o contrata a alguien que lo hace), esto es lo que necesita saber (y hacer) para cumplir con la normativa.

Por qué la publicidad basada en IA plantea cuestiones éticas

Los anuncios generados por IA no son intrínsecamente poco éticos. Pero pueden ser engañosamente ingeniosos. Las herramientas entrenadas para imitar el habla y el estilo humanos pueden producir contenidos que parecen pulidos, persuasivos y plausibles. Eso es lo que los hace tan atractivos. Y también lo que los hace peligrosos.

El problema surge cuando ese pulido enmascara un problema. Una herramienta puede describir la tasa de victorias de un abogado en términos absolutos, sugerir resultados que ninguna firma podría garantizar o generar un lenguaje que parezca un testimonio, sin basarse nunca en casos o clientes reales. Nadie le dijo que mintiera. Pero no sabe cómo no hacerlo.

Luego está la capa visual. La IA puede crear avatares, sintetizar el habla y producir vídeos aparentemente «auténticos» sin que haya un ser humano detrás del mensaje. Si ese contenido no está claramente etiquetado o si implica la participación de una persona real, se abre la puerta tanto a sanciones disciplinarias como a reclamaciones por engaño al consumidor.

Y en el backend, los riesgos son aún más sutiles. Los sistemas de retargeting impulsados por IA pueden utilizar comportamientos sensibles de los usuarios: visitas a una página de destino legal, clics en determinadas palabras clave, tiempo dedicado a rellenar formularios de admisión, y reempaquetar esos datos en anuncios de seguimiento. Si esos sistemas no están configurados correctamente, o si faltan las divulgaciones, es posible que se termine infringiendo inadvertidamente la confidencialidad del cliente.

No se trata de casos extremos. Son consecuencias reales que pueden surgir no por culpa de alguien con malas intenciones, sino por falta de atención. Cuando el marketing se mueve rápido, el riesgo se cuela.

La IA no solo cambia la forma de producir anuncios. Cambia el tipo de supervisión que requieren esos anuncios. Y exige que los abogados sean tan cuidadosos con un titular como lo serían con un consejo, porque a los ojos del público, ambos representan a la profesión.

Las normas de conducta profesional no desaparecieron.

Cuando la ABA publicó el Dictamen Oficial n.º 506 en julio de 2024, no estableció nuevas responsabilidades. Simplemente reformuló las ya existentes desde la perspectiva de la IA. La competencia, la confidencialidad, la supervisión y la franqueza siguen siendo aplicables. Ahora, se aplican de nuevas formas.

La Norma Modelo 7.1 de la ABA sigue prohibiendo los anuncios engañosos. La Norma 1.6 sigue protegiendo la confidencialidad del cliente. La Norma 5.3 sigue exigiendo a los abogados que supervisen a los no abogados, incluidos los proveedores, herramientas o plataformas de IA. Lo que ha cambiado es la complejidad de aplicar esas normas en un espacio en el que los resultados son más rápidos, más difusos y, a veces, difíciles de rastrear.

La IA no inventa la responsabilidad. Simplemente hace que sea más difícil de rastrear y más fácil de pasar por alto. Piensa en el marco regulatorio actual en tres capas.

Reglas modelo de la ABA (La base)

La Asociación Americana de Abogados (ABA) no regula directamente la publicidad de los abogados, pero sus Normas Modelo de Conducta Profesional constituyen la base de la mayoría de las normas éticas estatales. Y cuando la ABA emite un dictamen formal, a menudo indica hacia dónde se dirigen las cosas.

Eso es exactamente lo que ocurrió en el Dictamen Formal n.º 506. La ABA no estableció nuevas obligaciones, sino que aclaró que las ya existentes siguen siendo aplicables, incluso cuando interviene la IA. El dictamen también dejó claro algo más: no se puede externalizar la responsabilidad ética a una herramienta. Si un modelo de IA genera contenido que traspasa los límites, ya sea porque es engañoso, porque ha sido entrenado de forma inadecuada o porque se basa en datos sensibles, el abogado sigue siendo el responsable.

Las directrices estatales pueden diferir en cuanto al momento y el tono, pero casi todas parten de esta base. Si utiliza la IA en su marketing jurídico, se espera que aplique el mismo criterio ético que siempre ha aplicado, solo que a un proceso más rápido y menos predecible.

Orientación explícita sobre IA (estados pioneros)

Aunque la mayoría de los colegios de abogados estatales aún están tratando de determinar cómo encaja la IA en sus normas publicitarias, algunos se han adelantado. Florida, California y Nueva York han publicado directrices que abordan directamente la IA en la práctica jurídica, incluyendo su uso en las comunicaciones con los clientes y el marketing.

Cada uno ha tomado un camino ligeramente diferente, pero el mensaje es coherente: los abogados siguen siendo responsables de todo lo que se publique bajo su nombre, independientemente de cómo se haya creado.

En Florida, la Opinión Consultiva sobre Ética 24-1 establece una postura clara. Los abogados pueden utilizar la IA generativa en la publicidad, pero solo si la supervisan cuidadosamente y se aseguran de que cumple con las normas vigentes. Esto incluye los requisitos notoriamente estrictos del estado en materia de presentación de documentos, exenciones de responsabilidad y formato. Si una herramienta de IA genera un lenguaje engañoso u omite una exención de responsabilidad obligatoria, la responsabilidad y el riesgo siguen recayendo en el abogado.

California ha adoptado un enfoque práctico, instando a los abogados a ser transparentes al utilizar herramientas de IA y a mantener una supervisión completa de cualquier contenido que dichas herramientas ayuden a producir. El enfoque aquí no se centra solo en la veracidad, sino en la necesidad de una supervisión activa e informada en cada paso del proceso.

El informedelgrupode trabajo deNueva York de 2024 adoptó una perspectiva más amplia, pero aún así llegó a una conclusión clara: las empresas que utilizan la IA en su marketing deben revelarlo cuando sea apropiado, evitar afirmaciones o recomendaciones sintéticas y tratar el contenido generado por la IA como un discurso de un abogado. Si usted no lo diría por sí mismo, o no podría respaldarlo en una revisión ética, no debería aparecer en su anuncio, incluso si lo ha escrito la IA.

Lo que dejan claro estos estados pioneros es que las normas no se han flexibilizado para adaptarse a las nuevas herramientas. En todo caso, se han endurecido. El uso de la IA no elimina tus obligaciones éticas, sino que las amplía. Y en estados como estos, ya hay pruebas documentales que lo demuestran.

Silencioso pero implícito (En todas partes)

En la mayor parte del país, no existe una opinión ética oficial sobre la publicidad jurídica generada por IA. No hay directrices claras. No hay votación formal. Solo silencio o noticias de que un comité está trabajando en la ética de la IA.

Pero el silencio no significa permiso. Se espera que apliques las normas existentes a un conjunto de herramientas nuevo y en rápida evolución, y que lo hagas con el mismo cuidado y criterio que emplearías en cualquier otra parte de tu práctica.

Si se encuentra en un estado «silencioso», siguen aplicándose las normas habituales: sus anuncios deben ser veraces, la información de sus clientes debe permanecer confidencial y usted es responsable de supervisar a cualquier persona (o cosa) que participe en la creación de su marketing. Esto incluye a los equipos internos, los proveedores y las plataformas de IA.

Es probable que algunos colegios de abogados estatales estén observando y esperando. Otros están redactando directrices en este momento. Pero todos ellos son cada vez más conscientes de lo que la IA está haciendo con la velocidad, el volumen y la naturaleza de la publicidad jurídica. Si su jurisdicción aún no ha emitido una opinión, asuma que las expectativas básicas siguen vigentes y actúe en consecuencia.

La postura más segura es también la más práctica: tratar el contenido asistido por IA como cualquier otra comunicación profesional. Si no superaría la revisión según las normas tradicionales de su estado, no la superará solo por el hecho de proceder de una herramienta.

Lista de verificación de cumplimiento en cinco pasos para anuncios legales basados en inteligencia artificial

Utiliza esta lista de verificación para establecer medidas de protección en torno al marketing asistido por IA de tu empresa. No se trata de frenar el progreso, sino de garantizar que tu equipo avance rápidamente sin romper la confianza, las normas o las plataformas.

1. Definir los límites del uso de la IA.

Antes de poner en marcha cualquier herramienta, todas las personas implicadas (abogados, comercializadores, proveedores) deben saber dónde encaja la IA en su flujo de trabajo. Los mayores riesgos se producen cuando las expectativas son vagas y se da por sentado el control.

☐ Identificar qué elementos publicitarios puede generar la IA (por ejemplo, titulares, conceptos visuales)
☐ Prohibir el uso de la IA para contenidos específicos de clientes, testimonios o asesoramiento jurídico
☐ Documentar esto en un documento de una página que firmen tanto el departamento de marketing como el de cumplimiento normativo.

2. Mantenga las indicaciones genéricas.

La publicidad ética comienza con datos limpios. Incluso las mejores herramientas de IA pueden exponer o incorporar información confidencial si se les proporciona demasiada. Trate las indicaciones de IA como registros públicos. Deben ser depuradas, anodinas y nunca rastreables hasta clientes reales.

☐ Nunca introduzcas nombres de clientes, datos o información confidencial en herramientas de IA
☐ Utiliza únicamente contenido público o anonimizado en las indicaciones
☐ Trata las indicaciones como si fueran descubrimientos: asume que algún día serán revisables.

3. Exigir una revisión por parte de un abogado.

La IA puede generar contenido pulido, pero no puede detectar una señal de alerta ética. Un abogado colegiado debe revisar cada anuncio con la misma perspectiva que utilizaría para cualquier comunicación pública, porque eso es exactamente lo que es.

☐ Revisar cada anuncio en busca de afirmaciones falsas o engañosas (Regla 7.1)
☐ Señalar cualquier lenguaje que implique resultados garantizados
☐ Aplicar el mismo escrutinio al tono, no solo a los hechos

4. Bloquear el control de versiones

Cuando surjan preguntas más adelante, ya sea internamente o por parte de un regulador, querrás tener un registro documental claro. Eso significa conservar el mensaje original, el resultado de la IA y la versión final, todo ello vinculado a un revisor y una fecha. Si no puedes rastrear cómo se creó un mensaje, no podrás defenderlo.

☐ Guardar la solicitud original, el resultado de la IA y la versión final aprobada
☐ Almacenar los materiales en un sistema seguro y no editable (WORM)
☐ Etiquetar los archivos por campaña, fecha y revisor

5. Supervisar los cambios normativos.

Se trata de un objetivo cambiante. Los colegios de abogados estatales, la FTC y las plataformas publicitarias aún están definiendo su postura con respecto a la IA. Lo que hoy está bien, puede ser motivo de alarma el próximo trimestre. Alguien de su equipo debe encargarse de estar al tanto de todo.

☐ Asigne a una sola persona o a un pequeño equipo la tarea de realizar un seguimiento de las actualizaciones en materia de ética
☐ Configure recordatorios en el calendario para las revisiones trimestrales
☐ Suscríbase a las alertas de su colegio de abogados estatal, la ABA, la FTC y las plataformas clave.

Revisión en 50 estados de las normas sobre inteligencia artificial y publicidad del Colegio de Abogados.

Esta tabla es un recurso vivo. Te recomendamos que la consultes con regularidad.

EstadoOrientación específica sobre IANormas sobre el contenido publicitario
AlabamaAún no disponibleRegla 7.2(b); el texto publicitario debe presentarse ante la Oficina del Asesor Jurídico.
AlaskaOpinión ética 2025-1Consulte las Opiniones Éticas 69-4 y 94-2.
ArizonaAún no disponibleDebe cumplir con el Código de Conducta Profesional de Arizona (RPC); no hay directrices específicas para la IA.
ArkansasAún no disponibleCumplimiento de la norma estándar 7.1; aún no se ha abordado la IA.
CaliforniaGuía práctica (2023)Requiere transparencia y supervisión; evita influencias indebidas.
ColoradoArtículo informal en una revista especializadaDebe cumplir con la Regla 7.2; la IA no se aborda formalmente.
ConnecticutAún no disponibleLa publicidad se considera una práctica legal; se aplican las normas de presentación.
DelawareAún no disponibleLas normas incluyen obligaciones de mantenimiento de registros y precisión.
FloridaOpinión ética 24-1Aprobación previa estricta, exenciones de responsabilidad, supervisión de abogados.
GeorgiaSe ha creado el Comité de IA.Rigido por las Reglas 7.1–7.3; la IA se considera asistencia de terceros.
HawáiAún no disponibleAnuncios regidos por las normas generales de RPC; no hay normas específicas para la IA.
IdahoAún no disponibleEl abogado asume la responsabilidad; cumplimiento estándar del Código de Conducta Profesional (RPC).
IllinoisSe ha creado un comité permanente.Regulado por la Norma 7.1; el uso de la IA aún no está regulado.
IndianaAún no disponibleSe aplican las reglas estándar 7.1-7.3.
IowaGuías de recursos sobre IALas RPC estándar se aplican a los anuncios generados por IA.
KansasAún no disponibleLa publicidad debe ser precisa; aún no se ha abordado la IA.
KentuckyKBA E-457 (2023)La IA debe ser supervisada; el contenido debe ser veraz.
LuisianaAún no disponibleRegido por RPC 7.2; supervisión de IA implícita.
MaineAún no disponibleRigido por las Reglas 7.1–7.3; no se menciona la IA.
MarylandAún no disponibleSe aplican las reglas estándar; la IA aún no está incluida.
MassachusettsAún no disponibleSe aplica la regla 7.1; el contenido de la IA se considera como discurso del abogado.
MíchiganAún no disponibleLa publicidad sigue el RPC; los CLE abordan la IA, sin normas formales.
MinnesotaAún no disponibleNo hay directrices formales sobre IA; se aplica el cumplimiento de las normas.
MisisipiAún no disponibleRegido por normas similares a las de la ABA; no se aborda la IA.
MisuriAún no disponibleSe aplican las reglas 4-7.1 a 4-7.5; la IA debe ser supervisada.
MontanaAún no disponibleSe aplican las normas publicitarias habituales.
NebraskaAún no disponibleNo hay directrices éticas específicas para la IA.
NevadaAún no disponiblePublicidad regulada por la norma RPC 7.2
Nuevo HampshireAún no disponibleRegido por los RPC generales
Nueva JerseyAún no disponibleLa regla 7.1 exige justificación; normas publicitarias estrictas.
Nuevo MéxicoAún no disponibleSe aplica la norma RPC 16-701; supervisión de IA implícita.
Nueva YorkInforme del Grupo de Trabajo (2024)Requiere la divulgación del uso de IA y la revisión por parte de un abogado.
Carolina del NorteAún no disponibleSe aplican las reglas 7.1-7.3; aún no se ha abordado la IA.
Dakota del NorteAún no disponibleLos anuncios generados por IA deben cumplir con los estándares de precisión de RPC.
OhioAún no disponibleRegido por la Regla 7.1; IA aún no abordada.
OklahomaAún no disponibleLos RPC requieren supervisión publicitaria y precisión.
OregónAún no disponibleSe aplican las normas de publicidad y confidencialidad.
PensilvaniaAún no disponibleSe aplican las reglas 7.1-7.3; se requiere supervisión de IA.
Isla RhodeAún no disponibleRegido por las normas publicitarias del Tribunal Supremo.
Carolina del SurAún no disponibleEn algunos casos, la publicidad debe registrarse.
Dakota del SurAún no disponibleSe aplican las reglas 7.1-7.3 del RPC.
TennesseeAún no disponibleNormas estrictas de archivo y conservación
TexasAún no disponibleEstricta supervisión publicitaria; la IA debe ser precisa, pueden aplicarse exenciones de responsabilidad.
UtahAún no disponibleDebate informal sobre IA; sin normas específicas para los anuncios.
VermontAún no disponibleRegulado por RPC; normas de IA no publicadas.
VirginiaAún no disponibleSe aplican las reglas 7.1-7.3; el contenido del anuncio debe ser supervisado.
WashingtonAún no disponible.Proteger los datos de los clientes; se aplica la supervisión general de los anuncios.
Virginia OccidentalAún no disponibleSe aplican las normas habituales de veracidad y transparencia.
WisconsinAún no disponibleRegulado por RPC similares a ABA
WyomingAún no disponible.No hay directrices específicas sobre IA; la regla 7.1 rige la precisión.

Creación de un manual de publicidad con IA que utilizará tu equipo

Evitar las infracciones éticas no consiste en tener miedo a la tecnología. Se trata de crear procesos que te permitan avanzar rápidamente y seguir siendo responsable. Significa integrar el cumplimiento normativo en tu forma de trabajar, no solo como un paso de aprobación de última hora.

Las empresas más eficaces no están dejando de lado la IA. Están creando una estructura a su alrededor.

Crea una política que establezca límites reales.

Aunque tu estado aún no se haya pronunciado al respecto, no tienes que esperar a recibir permiso para actuar de forma proactiva. Una breve política interna, basada en las primeras directrices de estados como Florida o California, puede ser de gran ayuda. Define qué tipos de contenido puede ayudar a producir la IA (titulares, imágenes, borradores de conceptos), dónde están los límites (historias de clientes, exenciones de responsabilidad, declaraciones de resultados) y cuándo es necesaria la revisión humana. Sea sencillo. Póngalo por escrito. Difúndalo ampliamente.

Evalúa a tus proveedores y herramientas como si fueran parte del equipo.

Si trabajas con socios externos que utilizan IA: compradores de medios, proveedores web, proveedores de contenido, necesitas saber qué están haciendo y cómo lo están haciendo. Pregunta cómo gestionan los datos inmediatos y si permiten una revisión humana final. El contrato de un proveedor debe ofrecer algo más que los resultados, debe proporcionar protección.

Formación conjunta en materia jurídica y de marketing

La creación de anuncios impulsada por la IA no puede funcionar de forma aislada. Requiere colaboración. Programe sesiones de trabajo breves entre sus equipos jurídicos y de marketing para revisar los flujos de trabajo, señalar los aspectos éticos y crear listas de verificación compartidas. El objetivo no es que todos se conviertan en expertos, sino asegurarse de que nadie dé por sentado que otra persona se encarga del cumplimiento normativo.

Incorporar un seguimiento periódico

Las directrices éticas, las normativas de la FTC y las políticas de las plataformas publicitarias están evolucionando rápidamente. Asigne a una persona específica o a un pequeño equipo la tarea de mantenerse al tanto de los cambios y, a continuación, otórgales la autoridad para recomendar actualizaciones de los procesos. Establezca puntos de control trimestrales para revisar sus herramientas, resultados y prácticas de gestión de riesgos. Una auditoría única no será suficiente. El cumplimiento de la normativa en materia de IA debe ser continuo.

Próximos pasos: deepfakes, divulgación y cambios en las políticas de las plataformas

¿El próximo gran punto conflictivo en materia de cumplimiento normativo? Los vídeos generados por IA y los medios sintéticos.

Estamos dejando rápidamente atrás las imágenes estáticas y los textos de los chatbots. Los bufetes de abogados están empezando a experimentar con herramientas que generan guiones completos para vídeos, crean voces en off sintéticas o reproducen vídeos de testimonios utilizando avatares. Aunque las posibilidades creativas son atractivas, el riesgo está a punto de dispararse, especialmente ahora que los reguladores empiezan a intervenir.

Se espera que en los próximos 12 a 18 meses se publiquen dictámenes éticos formales sobre el contenido de vídeo generado por IA. Varios colegios de abogados estatales ya están evaluando en qué medida los anuncios de estilo deepfake se ajustan (o no) a obligaciones fundamentales como la veracidad, la transparencia y la no engaño. Aunque las imágenes «parezcan reales», deben superar la prueba de la regla 7.1: ¿Son veraces? ¿Pueden inducir a error? ¿Podría un espectador creer razonablemente que representan a un cliente o abogado real?

Pero aquí está la parte que la mayoría de las empresas pasan por alto:
No solo hay que responder ante el colegio de abogados, sino también ante las plataformas.

Plataformas como YouTube, Meta (Facebook/Instagram), TikTok y X (antes Twitter) están implementando políticas de transparencia en materia de inteligencia artificial que exigen una divulgación clara cuando el contenido ha sido generado o alterado sintéticamente. Por ejemplo:

  • YouTubeahora exige que se revele cualquier imagen o voz realista modificada mediante inteligencia artificial, tanto en contenido orgánico como pagado.
  • Metaseñala el uso de IA en los anuncios y exige que se revele su presencia cuando hay elementos deepfake, especialmente en sectores regulados como el jurídico.
  • TikTokaplica el etiquetado «IA» cuando el contenido utiliza elementos generativos, y el incumplimiento de esta norma puede afectar negativamente a la distribución.
  • Xestá evolucionando sus políticas en tiempo real, con un mayor escrutinio sobre la suplantación de identidad y el contenido sintético engañoso.

En resumen: aunque tu estado no haya prohibido explícitamente los avatares generados por IA,YouTube podría eliminar tu vídeo de todos modos.

Esto significa que una estrategia publicitaria basada en IA que cumpla con la normativa debe ahora navegar por dos sistemas paralelos. Debe asignar a un responsable de cumplimiento normativo para que supervise tanto las directrices en evolución del colegio de abogados como las políticas de las plataformas publicitarias.

    LaFleur: Manténgase en cumplimiento, manténgase competitivo.

    La IA acelera la creación, la iteración y la implementación de contenidos, pero también acelera su exposición al riesgo. Cuanto más automatice, más intencionales deben ser sus sistemas.

    Eso no significa hacer una pausa. Significa adelantarse al riesgo antes de que se convierta en un problema. Porque si algo sale mal: si un regulador señala tu lenguaje, si una plataforma suspende tu campaña o si un competidor presenta una queja, no importará quién escribió el texto. Importará quién lo aprobó.

    Si utiliza herramientas de inteligencia artificial para respaldar su publicidad legal, o si sus proveedores lo hacen, ahora es el momento de implementar el proceso de revisión adecuado. Sepa lo que publica. Sea responsable de cómo se elabora. Y asegúrese de que sus normas de cumplimiento se ajustan a sus ambiciones de marketing.

    Programa una auditoría de cumplimiento normativo en publicidad con IA con LaFleur.

    Le ayudaremos a revisar sus flujos de trabajo, señalar áreas de preocupación y crear barreras de protección que protejan su práctica, al tiempo que permiten a su equipo seguir avanzando rápidamente.