Thư viện >

Hướng dẫn về các quy định của Hiệp hội Luật sư Tiểu bang liên quan đến quảng cáo do AI tạo ra (+ tổng quan 50 tiểu bang)

Leigh Ebrom

Đã xuất bản:

Bản đồ Hoa Kỳ do NASA chụp, thể hiện hình ảnh đất nước từ không gian.

Nội dung do AI tạo ra nhanh chóng, tiết kiệm chi phí và thường có sức thuyết phục đáng ngạc nhiên. Trong một thị trường pháp lý cạnh tranh, đó là một sự kết hợp hấp dẫn. Cho dù bạn đang viết tiêu đề quảng cáo PPC, tạo đồ họa lời chứng thực hay để công cụ GPT thiết kế biển quảng cáo tiếp theo của mình, AI tạo sinh có thể giúp bạn hành động nhanh chóng.

Nhưng hành động nhanh chóng có thể tiềm ẩn rủi ro; đặc biệt là trong một nghề nghiệp mà các nghĩa vụ đạo đức vẫn được áp dụng, bất kể công cụ của bạn hiện đại đến mức nào.

Trong khi trí tuệ nhân tạo tạo sinh đang làm thay đổi cách chúng ta tạo và phân phối quảng cáo, nhiều hiệp hội luật sư tiểu bang vẫn đang tìm cách ứng phó. Điều này có nghĩa là rủi ro thường đổ dồn lên công ty luật của bạn. Nếu bạn đang tiếp thị dịch vụ pháp lý bằng AI (hoặc thuê người làm việc này), đây là những điều bạn cần biết (và làm) để tuân thủ quy định.

Vì sao quảng cáo bằng AI lại gây ra những lo ngại về mặt đạo đức?

Quảng cáo do AI tạo ra không nhất thiết là phi đạo đức. Nhưng chúng có thể rất tinh vi và dễ đánh lừa người dùng. Các công cụ được huấn luyện để bắt chước giọng nói và phong cách của con người có thể tạo ra nội dung trông trau chuốt, thuyết phục và đáng tin cậy. Đó là điều khiến chúng trở nên hấp dẫn. Đó cũng là điều khiến chúng nguy hiểm.

Vấn đề bắt đầu khi lớp vỏ hào nhoáng đó che giấu một vấn đề thực sự. Một công cụ có thể mô tả tỷ lệ thắng kiện của luật sư bằng những con số tuyệt đối, đưa ra những kết quả mà không công ty nào có thể đảm bảo, hoặc tạo ra ngôn ngữ nghe giống như lời chứng thực, mà không hề dựa trên các vụ án hay khách hàng thực tế. Không ai bảo nó phải nói dối. Nhưng nó không biết cách tránh nói dối.

Tiếp theo là khía cạnh hình ảnh. Trí tuệ nhân tạo (AI) có thể tạo ra hình đại diện, tổng hợp giọng nói và tạo ra video trông có vẻ "chân thực" mà không cần người thật đứng sau thông điệp. Nếu nội dung đó không được dán nhãn rõ ràng hoặc nếu nó ngụ ý có sự tham gia của người thật, nó sẽ mở ra cánh cửa cho cả việc bị kỷ luật trong quán bar và bị cáo buộc lừa dối người tiêu dùng.

Và ở phía máy chủ, rủi ro thậm chí còn khó nhận biết hơn. Các hệ thống nhắm mục tiêu lại dựa trên trí tuệ nhân tạo có thể sử dụng hành vi nhạy cảm của người dùng: lượt truy cập vào trang đích hợp pháp, số lần nhấp chuột vào các từ khóa nhất định, thời gian dành cho các biểu mẫu đăng ký, và đóng gói lại dữ liệu đó thành các quảng cáo tiếp theo. Nếu các hệ thống đó không được cấu hình đúng cách, hoặc nếu thiếu thông tin công khai, bạn có thể vô tình vi phạm bảo mật thông tin khách hàng.

Đây không phải là những trường hợp cá biệt. Chúng là những hậu quả thực tế có thể phát sinh không phải từ một kẻ xấu, mà từ sự thiếu chú ý. Khi hoạt động marketing diễn ra nhanh chóng, rủi ro dễ bị bỏ sót.

Trí tuệ nhân tạo không chỉ thay đổi cách bạn sản xuất quảng cáo. Nó còn thay đổi loại hình giám sát mà những quảng cáo đó đòi hỏi. Và nó yêu cầu các luật sư phải cẩn trọng với tiêu đề như với một lời khuyên—bởi vì trong mắt công chúng, cả hai đều đại diện cho nghề nghiệp.

Các quy tắc ứng xử nghề nghiệp vẫn không hề biến mất.

Khi Hiệp hội Luật sư Hoa Kỳ (ABA) ban hành Ý kiến ​​chính thức số 506 vào tháng 7 năm 2024, họ không tạo ra những trách nhiệm mới. Họ chỉ đơn giản là định hình lại những trách nhiệm hiện có thông qua lăng kính của trí tuệ nhân tạo (AI). Năng lực, bảo mật, giám sát và sự thẳng thắn vẫn được áp dụng. Giờ đây, chúng được áp dụng theo những cách thức mới.

Quy tắc mẫu 7.1 của ABA vẫn cấm quảng cáo gây hiểu nhầm. Quy tắc 1.6 vẫn bảo vệ quyền riêng tư của khách hàng. Quy tắc 5.3 vẫn yêu cầu luật sư giám sát những người không phải luật sư—bao gồm cả các nhà cung cấp, công cụ hoặc nền tảng AI. Điều đã thay đổi là sự phức tạp trong việc áp dụng các tiêu chuẩn đó trong một lĩnh vực mà kết quả đầu ra nhanh hơn, không rõ ràng hơn và đôi khi khó truy vết.

Trí tuệ nhân tạo không tạo ra trách nhiệm. Nó chỉ khiến việc theo dõi trở nên khó khăn hơn và việc bỏ sót dễ dàng hơn. Hãy nghĩ về khung pháp lý hiện hành theo ba lớp.

Các quy tắc mẫu của ABA (Nền tảng)

Hiệp hội Luật sư Hoa Kỳ không trực tiếp quản lý việc quảng cáo của luật sư, nhưng Quy tắc ứng xử nghề nghiệp mẫu của hiệp hội này là cơ sở cho hầu hết các quy tắc đạo đức của các tiểu bang. Và khi ABA đưa ra một ý kiến chính thức, nó thường báo hiệu xu hướng sắp tới.

Đó chính xác là những gì đã xảy ra trong Ý kiến ​​Chính thức số 506. Hiệp hội Luật sư Hoa Kỳ (ABA) không công bố các nghĩa vụ mới, mà chỉ làm rõ rằng các nghĩa vụ hiện tại của bạn vẫn được áp dụng, ngay cả khi có sự tham gia của trí tuệ nhân tạo (AI). Ý kiến ​​này cũng làm rõ một điều khác: bạn không thể chuyển giao trách nhiệm đạo đức cho một công cụ. Nếu một mô hình AI tạo ra nội dung vượt quá giới hạn, cho dù đó là nội dung gây hiểu nhầm, được đào tạo không đúng cách, hay dựa trên các thông tin nhạy cảm, thì luật sư vẫn là người phải chịu trách nhiệm.

Hướng dẫn của từng tiểu bang có thể khác nhau về thời điểm và giọng điệu, nhưng hầu hết đều bắt nguồn từ nền tảng này. Nếu bạn sử dụng AI trong hoạt động tiếp thị pháp lý của mình, bạn được kỳ vọng sẽ áp dụng cùng một lăng kính đạo đức như mọi khi—chỉ là vào một quy trình nhanh hơn và ít dự đoán được hơn.

Hướng dẫn AI rõ ràng (Các tiểu bang tiên phong)

Trong khi hầu hết các hiệp hội luật sư tiểu bang vẫn đang tìm hiểu xem trí tuệ nhân tạo (AI) phù hợp như thế nào với các quy định quảng cáo của họ, một số ít đã đi trước một bước. Florida, California và New York đều đã ban hành hướng dẫn trực tiếp đề cập đến AI trong hoạt động pháp lý, bao gồm cả cách sử dụng nó trong giao tiếp với khách hàng và tiếp thị.

Mỗi người đã đi theo một con đường hơi khác nhau, nhưng thông điệp thì nhất quán: luật sư vẫn phải chịu trách nhiệm về bất cứ điều gì được đưa ra dưới danh nghĩa của họ, bất kể nó được tạo ra như thế nào.

Tại Florida, Ý kiến tư vấn đạo đức số 24-1 đã nêu rõ một quy định. Luật sư có thể sử dụng trí tuệ nhân tạo tạo sinh trong quảng cáo, nhưng chỉ khi họ giám sát cẩn thận và đảm bảo nó tuân thủ các quy tắc hiện hành. Điều đó bao gồm các yêu cầu cực kỳ nghiêm ngặt của tiểu bang về việc nộp hồ sơ, tuyên bố miễn trừ trách nhiệm và định dạng. Nếu một công cụ AI tạo ra ngôn ngữ gây hiểu nhầm hoặc bỏ sót một tuyên bố miễn trừ trách nhiệm bắt buộc, trách nhiệm và rủi ro vẫn thuộc về luật sư.

California đã áp dụng cách tiếp cận hướng dẫn thực tiễn, khuyến khích luật sư minh bạch khi sử dụng các công cụ AI và duy trì sự giám sát toàn diện đối với bất kỳ nội dung nào mà các công cụ đó tạo ra. Trọng tâm ở đây không chỉ là tính trung thực, mà còn là sự cần thiết phải giám sát tích cực và có hiểu biết ở mọi bước của quy trình.

Báo cáo của nhóm đặc nhiệm New York năm 2024 đã đưa ra một quan điểm rộng hơn, nhưng vẫn đi đến một kỳ vọng rõ ràng: các công ty sử dụng AI trong tiếp thị phải công khai điều đó khi thích hợp, tránh các tuyên bố hoặc chứng thực giả tạo và coi nội dung do AI tạo ra như lời nói của luật sư. Nếu bạn không tự mình nói điều đó—hoặc không thể chứng minh được tính đúng đắn của nó khi xem xét về mặt đạo đức—thì nó không nên xuất hiện trong quảng cáo của bạn, ngay cả khi nó được viết bởi AI.

Điều mà các tiểu bang tiên phong này làm rõ là các quy định không hề được nới lỏng để phù hợp với các công cụ mới. Thậm chí, chúng còn được thắt chặt hơn. Việc sử dụng trí tuệ nhân tạo không xóa bỏ nghĩa vụ đạo đức của bạn, mà ngược lại, nó mở rộng chúng. Và ở những tiểu bang như vậy, đã có sẵn bằng chứng bằng văn bản để chứng minh điều đó.

Im lặng nhưng ngụ ý (Ở mọi nơi khác)

Ở hầu hết các vùng của đất nước, không có quan điểm đạo đức chính thức nào về quảng cáo pháp lý do AI tạo ra. Không có hướng dẫn rõ ràng. Không có cuộc bỏ phiếu chính thức. Chỉ có sự im lặng hoặc thông tin rằng một ủy ban đang nghiên cứu về đạo đức AI.

Nhưng im lặng không có nghĩa là được phép. Bạn cần áp dụng các quy tắc hiện hành cho một bộ công cụ mới và đang thay đổi nhanh chóng—và phải làm điều đó với sự cẩn trọng và phán đoán tương tự như bạn vẫn làm với bất kỳ phần nào khác trong công việc của mình.

Nếu bạn đang ở trong tình trạng "im lặng", các quy tắc tiêu chuẩn vẫn được áp dụng: quảng cáo của bạn phải trung thực, thông tin khách hàng phải được giữ bí mật và bạn chịu trách nhiệm giám sát bất kỳ ai (hoặc bất cứ điều gì) tham gia vào việc tạo ra hoạt động tiếp thị của mình. Điều đó bao gồm các nhóm nội bộ, nhà cung cấp và nền tảng trí tuệ nhân tạo.

Một số hiệp hội luật sư tiểu bang có thể đang theo dõi và chờ đợi. Một số khác đang soạn thảo hướng dẫn ngay bây giờ. Nhưng tất cả đều ngày càng nhận thức rõ hơn về những gì trí tuệ nhân tạo đang làm đối với tốc độ, khối lượng và bản chất của quảng cáo pháp lý. Nếu khu vực pháp lý của bạn chưa đưa ra ý kiến nào, hãy giả định rằng các kỳ vọng cơ bản vẫn còn hiệu lực—và hành động cho phù hợp.

Cách tiếp cận an toàn nhất cũng là cách thực tế nhất: hãy coi nội dung được hỗ trợ bởi AI như bất kỳ hình thức giao tiếp chuyên nghiệp nào khác. Nếu nó không vượt qua được quá trình kiểm duyệt theo các quy định truyền thống của tiểu bang bạn, thì nó cũng sẽ không vượt qua chỉ vì nó được tạo ra từ một công cụ.

Danh sách kiểm tra tuân thủ 5 bước dành cho quảng cáo pháp lý được hỗ trợ bởi AI.

Hãy sử dụng danh sách kiểm tra này để xây dựng các rào cản xung quanh hoạt động tiếp thị hỗ trợ bởi AI của công ty bạn. Mục đích không phải là ngăn chặn sự tiến bộ, mà là đảm bảo nhóm của bạn đang tiến nhanh mà không vi phạm lòng tin, quy tắc hoặc nền tảng.

1. Xác định giới hạn cho việc sử dụng AI

Trước khi đưa bất kỳ công cụ nào vào sử dụng, tất cả những người liên quan: luật sư, chuyên viên marketing, nhà cung cấp, cần phải biết AI phù hợp với quy trình làm việc của bạn như thế nào. Rủi ro lớn nhất xảy ra khi kỳ vọng không rõ ràng và việc giám sát được cho là không có cơ sở.

☐ Xác định những yếu tố quảng cáo nào mà AI được phép tạo ra (ví dụ: tiêu đề, ý tưởng hình ảnh)
☐ Cấm sử dụng AI cho nội dung dành riêng cho khách hàng, lời chứng thực hoặc tư vấn pháp lý.
☐ Hãy lập văn bản này thành một trang duy nhất, có chữ ký xác nhận của bộ phận marketing và bộ phận tuân thủ.

2. Giữ cho các câu hỏi gợi ý ở mức độ chung chung.

Quảng cáo có đạo đức bắt đầu từ dữ liệu đầu vào sạch. Ngay cả những công cụ AI tốt nhất cũng có thể làm lộ hoặc ẩn chứa thông tin nhạy cảm nếu bạn cung cấp quá nhiều. Hãy coi các đề xuất của AI như hồ sơ công khai. Chúng cần được lọc sạch, đơn giản và không bao giờ có thể truy vết đến khách hàng thực sự.

☐ Tuyệt đối không nhập tên khách hàng, thông tin cá nhân hoặc dữ liệu bí mật vào các công cụ AI.
☐ Chỉ sử dụng nội dung công khai hoặc ẩn danh trong các câu hỏi.
☐ Hãy coi các câu hỏi gợi ý như quá trình khám phá: giả định rằng chúng sẽ được xem xét lại vào một ngày nào đó.

3. Yêu cầu xem xét ở cấp độ luật sư.

Trí tuệ nhân tạo (AI) có thể tạo ra nội dung trau chuốt, nhưng nó không thể phát hiện ra những vấn đề đạo đức. Một luật sư có giấy phép hành nghề nên xem xét mọi quảng cáo với cùng một góc nhìn như đối với bất kỳ hình thức truyền thông công cộng nào khác — bởi vì đó chính xác là bản chất của nó.

☐ Xem xét kỹ mọi quảng cáo để phát hiện các tuyên bố sai sự thật hoặc gây hiểu nhầm (Quy tắc 7.1)
☐ Báo cáo bất kỳ ngôn ngữ nào ngụ ý kết quả được đảm bảo.
☐ Hãy xem xét kỹ lưỡng cả giọng điệu lẫn sự thật.

4. Kiểm soát chặt chẽ phiên bản

Khi có thắc mắc phát sinh sau này, từ nội bộ hoặc từ cơ quan quản lý, bạn sẽ cần một hồ sơ bằng văn bản rõ ràng. Điều đó có nghĩa là giữ lại bản ghi gốc, kết quả đầu ra của AI và phiên bản cuối cùng, tất cả đều được liên kết với người đánh giá và ngày tháng. Nếu bạn không thể truy vết cách một tin nhắn được tạo ra, bạn không thể bảo vệ nó.

☐ Lưu lại lời nhắc ban đầu, kết quả đầu ra của AI và phiên bản cuối cùng đã được phê duyệt
☐ Lưu trữ tài liệu trong hệ thống an toàn, không thể chỉnh sửa (WORM)
☐ Gắn thẻ tệp theo chiến dịch, ngày và người đánh giá

5. Theo dõi các thay đổi về quy định

Đây là một vấn đề luôn thay đổi. Các hiệp hội luật sư tiểu bang, FTC và các nền tảng quảng cáo vẫn đang tìm hiểu lập trường của họ về AI. Điều được coi là ổn hôm nay có thể sẽ gây ra vấn đề nghiêm trọng vào quý tới. Cần có người trong nhóm của bạn chịu trách nhiệm theo dõi sát sao vấn đề này.

☐ Phân công một người hoặc một nhóm nhỏ theo dõi các cập nhật về đạo đức
☐ Đặt lời nhắc trên lịch cho các cuộc đánh giá hàng quý
☐ Đăng ký nhận thông báo từ hội luật sư tiểu bang, ABA, FTC và các nền tảng quan trọng.

Đánh giá toàn diện 50 tiểu bang về các quy tắc về trí tuệ nhân tạo và quảng cáo của Hiệp hội Luật sư.

Bảng này là một nguồn tài liệu luôn được cập nhật. Bạn nên thường xuyên xem lại nó.

Tình trạngHướng dẫn dành riêng cho AIQuy tắc nội dung quảng cáo
AlabamaChưa có sẵnQuy tắc 7.2(b ); bản sao quảng cáo phải được nộp cho Văn phòng Cố vấn pháp lý
AlaskaÝ kiến về đạo đức 2025-1Tham khảo các ý kiến về đạo đức số 69-4 và 94-2.
ArizonaChưa có sẵnPhải tuân thủ Quy tắc ứng xử trong cộng đồng Arizona (Arizona RPC); không có hướng dẫn cụ thể nào về trí tuệ nhân tạo.
ArkansasChưa có sẵnTuân thủ Quy tắc 7.1 tiêu chuẩn; Trí tuệ nhân tạo (AI) chưa được đề cập
CaliforniaHướng dẫn thực tiễn (2023)Yêu cầu tính minh bạch và giám sát; ngăn ngừa sự can thiệp không chính đáng.
ColoradoChỉ là bài viết không chính thức trên tạp chí luật sư.Phải tuân thủ Quy tắc 7.2; AI không được đề cập chính thức
ConnecticutChưa có sẵnQuảng cáo được coi là hoạt động hợp pháp; các quy tắc nộp hồ sơ được áp dụng.
DelawareChưa có sẵnCác quy định bao gồm nghĩa vụ lưu giữ hồ sơ và tính chính xác.
FloridaÝ kiến về đạo đức 24-1Phê duyệt trước nghiêm ngặt, tuyên bố miễn trừ trách nhiệm, giám sát của luật sư
GeorgiaỦy ban AI được thành lậpTuân theo Quy tắc 7.1–7.3; AI được coi là sự hỗ trợ của bên thứ ba
HawaiiChưa có sẵnQuảng cáo tuân theo quy tắc RPC chung; không có quy tắc cụ thể nào dành cho AI.
IdahoChưa có sẵnLuật sư chịu trách nhiệm pháp lý; tuân thủ các quy định tiêu chuẩn của RPC.
IllinoisỦy ban thường trực được thành lậpĐược điều chỉnh bởi Quy tắc 7.1; việc sử dụng AI chưa được quy định.
IndianaChưa có sẵnCác quy tắc tiêu chuẩn 7.1–7.3 được áp dụng.
Iowahướng dẫn tài nguyên AICác RPC tiêu chuẩn áp dụng cho quảng cáo do AI tạo ra.
KansasChưa có sẵnQuảng cáo phải chính xác; trí tuệ nhân tạo (AI) chưa được đề cập đến.
KentuckyKBA E-457 (2023)Trí tuệ nhân tạo cần được giám sát; nội dung phải trung thực.
LouisianaChưa có sẵnĐược điều chỉnh bởi RPC 7.2; sự giám sát của AI được ngụ ý.
MaineChưa có sẵnTuân theo Quy tắc 7.1–7.3; AI không được đề cập
MarylandChưa có sẵnCác quy tắc tiêu chuẩn được áp dụng; AI chưa được bao gồm.
MassachusettsChưa có sẵnQuy tắc 7.1 được áp dụng; nội dung AI được coi là lời nói của luật sư
MichiganChưa có sẵnQuảng cáo tuân theo RPC; CLE đề cập đến AI, không có quy tắc chính thức nào.
MinnesotaChưa có sẵnKhông có hướng dẫn chính thức nào về trí tuệ nhân tạo; áp dụng các quy định tuân thủ tiêu chuẩn.
MississippiChưa có sẵnTuân theo các quy tắc tương tự như ABA; không đề cập đến trí tuệ nhân tạo (AI).
MissouriChưa có sẵnCác điều khoản từ 4-7.1 đến 4-7.5 chi phối; trí tuệ nhân tạo phải được giám sát.
MontanaChưa có sẵnCác quy tắc quảng cáo tiêu chuẩn được áp dụng.
NebraskaChưa có sẵnKhông có hướng dẫn đạo đức cụ thể nào dành riêng cho AI.
NevadaChưa có sẵnQuảng cáo tuân theo quy định của RPC 7.2
New HampshireChưa có sẵnĐược điều chỉnh bởi các RPC chung
New JerseyChưa có sẵnQuy tắc 7.1 yêu cầu chứng minh; tiêu chuẩn quảng cáo nghiêm ngặt
New MexicoChưa có sẵnQuy tắc RPC 16-701 được áp dụng; sự giám sát của AI được ngụ ý.
New YorkBáo cáo của Nhóm đặc nhiệm (2024)Yêu cầu công khai việc sử dụng trí tuệ nhân tạo và xem xét của luật sư.
Bắc CarolinaChưa có sẵnCác quy tắc 7.1–7.3 được áp dụng; AI chưa được đề cập
Bắc DakotaChưa có sẵnQuảng cáo do AI tạo ra phải đáp ứng các tiêu chuẩn về độ chính xác RPC.
OhioChưa có sẵnĐược điều chỉnh bởi Quy tắc 7.1; Trí tuệ nhân tạo (AI) chưa được đề cập đến.
OklahomaChưa có sẵnRPC đòi hỏi sự giám sát và tính chính xác của quảng cáo.
OregonChưa có sẵnCác quy định về quảng cáo và bảo mật được áp dụng.
PennsylvaniaChưa có sẵnCác quy tắc 7.1–7.3 được áp dụng; cần có sự giám sát của AI.
Rhode IslandChưa có sẵnTuân theo các quy tắc quảng cáo của Tòa án Tối cao.
Nam CarolinaChưa có sẵnTrong một số trường hợp, việc quảng cáo phải được nộp hồ sơ.
Nam DakotaChưa có sẵnCác quy tắc RPC 7.1–7.3 được áp dụng.
TennesseeChưa có sẵnTiêu chuẩn lưu trữ và sắp xếp hồ sơ nghiêm ngặt
TexasChưa có sẵnGiám sát quảng cáo chặt chẽ; AI phải chính xác, có thể áp dụng các điều khoản miễn trừ trách nhiệm.
UtahChưa có sẵnThảo luận không chính thức về AI; không có quy tắc cụ thể nào cho quảng cáo.
VermontChưa có sẵnĐược quản lý bởi RPC; các quy tắc về AI chưa được công bố.
VirginiaChưa có sẵnCác quy tắc 7.1–7.3 được áp dụng; nội dung quảng cáo phải được giám sát.
WashingtonChưa có sẵnBảo vệ dữ liệu khách hàng; áp dụng quy định giám sát quảng cáo chung.
Tây VirginiaChưa có sẵnCác quy tắc tiêu chuẩn về tính trung thực và minh bạch được áp dụng.
WisconsinChưa có sẵnĐược điều chỉnh bởi các RPC giống ABA
WyomingChưa có sẵnKhông có hướng dẫn cụ thể nào về AI; Quy tắc 7.1 quy định về tính chính xác.

Xây dựng cẩm nang quảng cáo AI mà nhóm của bạn sẽ sử dụng.

Tránh vi phạm đạo đức không phải là sợ công nghệ. Đó là xây dựng các quy trình cho phép bạn hành động nhanh chóng và vẫn chịu trách nhiệm. Điều đó có nghĩa là biến việc tuân thủ trở thành một phần của cách bạn làm việc, chứ không chỉ là bước phê duyệt vào phút cuối.

Những công ty hiệu quả nhất không hề tạm dừng việc ứng dụng AI. Thay vào đó, họ đang xây dựng cấu trúc xung quanh nó.

Xây dựng chính sách thiết lập các giới hạn rõ ràng.

Ngay cả khi tiểu bang của bạn chưa đưa ra ý kiến, bạn không cần phải chờ đợi sự cho phép để chủ động hành động. Một chính sách nội bộ ngắn gọn, dựa trên hướng dẫn ban đầu từ các tiểu bang như Florida hoặc California, có thể mang lại hiệu quả rất lớn. Hãy xác định rõ loại nội dung nào AI có thể giúp tạo ra (tiêu đề, hình ảnh, bản nháp ý tưởng), những nội dung nào không được phép sử dụng AI (câu chuyện khách hàng, tuyên bố miễn trừ trách nhiệm, kết quả), và khi nào cần có sự xem xét của con người. Hãy giữ cho nó đơn giản. Viết ra giấy. Chia sẻ rộng rãi.

Hãy kiểm tra kỹ lưỡng các nhà cung cấp và công cụ như thể họ là một phần của nhóm.

Nếu bạn đang làm việc với các đối tác bên ngoài sử dụng AI: các nhà mua quảng cáo truyền thông, nhà cung cấp dịch vụ web, nhà cung cấp nội dung, bạn cần biết họ đang làm gì và làm như thế nào. Hãy hỏi họ xử lý dữ liệu phản hồi như thế nào và liệu họ có cho phép xem xét lại cuối cùng bởi con người hay không. Hợp đồng của nhà cung cấp không chỉ nên bao gồm các sản phẩm bàn giao mà còn phải có sự bảo vệ.

Đào tạo pháp lý và tiếp thị cùng nhau

Việc tạo quảng cáo dựa trên AI không thể hoạt động độc lập. Nó cần sự hợp tác. Hãy lên lịch các buổi làm việc ngắn giữa nhóm pháp lý và nhóm tiếp thị để xem xét quy trình làm việc, xác định các vấn đề đạo đức và xây dựng danh sách kiểm tra chung. Mục tiêu không phải là biến tất cả mọi người thành chuyên gia, mà là để đảm bảo không ai cho rằng người khác đang xử lý việc tuân thủ quy định.

Thiết lập hệ thống giám sát thường xuyên.

Các hướng dẫn về đạo đức, quy định của FTC và chính sách của các nền tảng quảng cáo đều đang thay đổi nhanh chóng. Hãy chỉ định một người hoặc một nhóm nhỏ để theo dõi sát sao những thay đổi này—sau đó trao cho họ quyền đề xuất cập nhật quy trình. Thiết lập các mốc kiểm tra hàng quý để xem xét các công cụ, kết quả đầu ra và các thực tiễn quản lý rủi ro của bạn. Một cuộc kiểm toán một lần sẽ không đủ. Việc tuân thủ AI phải được thực hiện liên tục.

Những diễn biến tiếp theo: Deepfakes, việc công khai thông tin và sự thay đổi chính sách của nền tảng.

Điểm nóng về tuân thủ pháp luật tiếp theo? Video do AI tạo ra và phương tiện truyền thông tổng hợp.

Chúng ta đang nhanh chóng vượt ra khỏi những hình ảnh tĩnh và nội dung văn bản tự động của chatbot. Các công ty luật đang bắt đầu thử nghiệm với các công cụ tạo ra toàn bộ kịch bản video, tạo giọng nói lồng tiếng tổng hợp hoặc dựng video kiểu lời chứng thực bằng hình đại diện. Mặc dù khả năng sáng tạo rất hấp dẫn, nhưng rủi ro sắp tăng vọt—đặc biệt là khi các cơ quan quản lý bắt đầu can thiệp.

Dự kiến sẽ có các ý kiến đạo đức chính thức về nội dung video do AI tạo ra trong vòng 12-18 tháng tới. Một số hiệp hội luật sư tiểu bang đã và đang đánh giá xem các quảng cáo kiểu deepfake có phù hợp (hoặc không) với các nghĩa vụ cốt lõi như tính trung thực, minh bạch và không lừa dối hay không. Ngay cả khi đoạn phim "trông có vẻ thật", nó vẫn cần phải vượt qua bài kiểm tra theo Quy tắc 7.1: Nó có trung thực không? Nó có khả năng gây hiểu lầm không? Người xem có thể tin một cách hợp lý rằng nó đại diện cho một khách hàng hoặc luật sư thực sự hay không?

Nhưng đây là phần mà hầu hết các công ty đều bỏ qua:
Bạn không chỉ phải chịu trách nhiệm trước tòa mà còn trước cả các nền tảng truyền thông nữa.

Các nền tảng như YouTube, Meta (Facebook/Instagram), TikTok và X (trước đây là Twitter) đang triển khai các chính sách minh bạch về trí tuệ nhân tạo, yêu cầu công khai rõ ràng khi nội dung được tạo ra hoặc chỉnh sửa bằng trí tuệ nhân tạo. Ví dụ:

  • YouTube hiện yêu cầu phải công khai mọi hình ảnh hoặc giọng nói được chỉnh sửa bằng AI trông giống thật trong cả nội dung tự nhiên và nội dung trả phí.
  • Meta gắn cờ việc sử dụng AI trong quảng cáo và yêu cầu công khai khi có các yếu tố deepfake, đặc biệt là trong các lĩnh vực được quản lý chặt chẽ như luật pháp.
  • TikTok bắt buộc gắn thẻ "AI" khi nội dung sử dụng các yếu tố tạo sinh, và việc không tuân thủ có thể khiến việc phân phối nội dung bị giảm sút.
  • X đang liên tục điều chỉnh chính sách của mình theo thời gian thực, với việc tăng cường giám sát đối với hành vi mạo danh và nội dung tổng hợp gây hiểu nhầm.

Tóm lại: Ngay cả khi tiểu bang của bạn chưa cấm rõ ràng việc sử dụng hình đại diện do AI tạo ra, YouTube vẫn có thể gỡ bỏ video của bạn .

Điều đó có nghĩa là một chiến lược quảng cáo dựa trên AI tuân thủ quy định giờ đây phải hoạt động song song trên hai hệ thống. Bạn nên chỉ định một người phụ trách tuân thủ để theo dõi cả hướng dẫn đang thay đổi của các cơ quan quản lý và chính sách của nền tảng quảng cáo.

    LaFleur: Tuân thủ quy định, duy trì khả năng cạnh tranh

    Trí tuệ nhân tạo (AI) giúp tăng tốc quá trình tạo, chỉnh sửa và triển khai nội dung—nhưng nó cũng làm tăng nguy cơ gặp rủi ro. Càng tự động hóa nhiều, hệ thống của bạn càng cần được quản lý một cách có chủ đích.

    Điều đó không có nghĩa là tạm dừng. Nó có nghĩa là chủ động giải quyết rủi ro trước khi nó trở thành vấn đề. Bởi vì nếu có điều gì đó không ổn: nếu cơ quan quản lý gắn cờ ngôn ngữ của bạn, nếu nền tảng tạm ngừng chiến dịch của bạn, hoặc nếu đối thủ cạnh tranh đệ đơn khiếu nại, thì việc ai viết nội dung đó không quan trọng. Điều quan trọng là ai đã phê duyệt nó.

    Nếu bạn đang sử dụng các công cụ AI để hỗ trợ quảng cáo pháp lý của mình—hoặc nếu nhà cung cấp của bạn đang sử dụng—thì đây là lúc cần thiết lập quy trình xem xét phù hợp. Hãy hiểu rõ những gì bạn đang công bố. Chịu trách nhiệm về cách thức tạo ra nội dung đó. Và đảm bảo các tiêu chuẩn tuân thủ của bạn đang theo kịp tham vọng tiếp thị của mình.

    Lên lịch kiểm toán tuân thủ quảng cáo AI với LaFleur.

    Chúng tôi sẽ giúp bạn xem xét lại quy trình làm việc, xác định các vấn đề cần quan tâm và xây dựng các biện pháp bảo vệ giúp đảm bảo hoạt động kinh doanh của bạn diễn ra suôn sẻ, đồng thời cho phép đội ngũ của bạn duy trì tốc độ làm việc nhanh chóng.