Tháng trước, hình ảnh vụ nổ gần Lầu Năm Góc xuất hiện chớp nhoáng trên mạng xã hội gây hỗn loạn và bán tháo trên thị trường chứng khoán. Giới chức xác nhận ảnh do AI tạo ra.
Theo Jeffrey McGregor, CEO Truepic, đây chỉ là “bề nổi” của những gì có thể xảy ra trong tương lai: "Chúng ta sẽ nhìn thấy nhiều nội dung do AI tạo ra trôi nổi trên mạng xã hội hơn, nhưng lại chưa chuẩn bị gì cho điều đó".
C&oci
rc;ng ty của McGregor đang tìm cách giải quyết vấn đề này. Truepic cung cấp c&oci
rc;ng nghệ xác định hình ảnh thật hay giả qua Truepic Lens. Ứng dụng thu thập dữ liệu bao gồm ngày, giờ, địa điểm và thiết bị dùng để tạo hình ảnh rồi áp dụng chữ ký số để xác minh.
Truepic thành lập năm 2015, sớm hơn vài năm so với các c&oci
rc;ng cụ tạo ảnh bằng AI như Dall-E và Midjourney. Theo McGregor, nhu cầu từ các cá nhân, tổ chức cần phải đưa ra quyết định dựa trên hình ảnh ngày càng lớn, từ c&oci
rc;ng ty truyền th&oci
rc;ng đến bảo hiểm.
“Khi thứ gì cũng có thể làm giả, mọi thứ đều có thể làm giả. AI tạo sinh đã đạt được bước ngoặt về chất lượng và khả năng tiếp cận, chúng ta kh&oci
rc;ng còn biết được cái gì là thật khi online”, &oci
rc;ng nhận xét.
Các hãng như Truepic đã chống lại th&oci
rc;ng tin sai sự thật nhiều năm nay nhưng sự tr
ỗi dậy của hàng loạt c&oci
rc;ng cụ AI mới với tốc độ tạo hình ảnh, bài viết nhanh chóng theo lời nhắc (prompt) của người dùng, khiến cho nỗ lực này trở nên cấp thiết hơn. Trong vài tháng gần đây, hình ảnh giả về Giáo hoàng Francis mặc áo khoác l&oci
rc;ng hay cựu Tổng thống Mỹ Donald Trump bị bắt giữ được chia sẻ rộng rãi trên mạng.
Một số nhà lập pháp kêu gọi các hãng c&oci
rc;ng nghệ giải quyết vấn đề. Vera Jourova, Phó Chủ tịch Ủy ban châu Âu, kêu gọi các bên ký kết Bộ quy tắc thực hành của EU về th&oci
rc;ng tin sai lệch - một danh sách bao gồm Google, Meta, Microsoft và TikTok - "đưa ra c&oci
rc;ng nghệ nhận dạng nội dung AI và dán nhãn rõ ràng cho người dùng".
Ngày càng có nhiều startup và Big Tech cố gắng thực hiện các tiêu chuẩn và giải pháp để giúp mọi người xác định xem hình ảnh hoặc video có được tạo bằng AI hay không. Nhưng khi c&oci
rc;ng nghệ AI phát triển nhanh hơn con người có thể theo kịp, kh&oci
rc;ng rõ liệu các giải pháp kỹ thuật này có giải quyết được triệt để vấn đề. Ngay cả OpenAI, c&oci
rc;ng ty đứng sau Dall-E và ChatGPT, đã thừa nhận vào
đầu năm nay rằng nỗ lực của chính họ để giúp phát hiện văn bản do AI tạo ra "kh&oci
rc;ng hoàn hảo" và cảnh báo kh&oci
rc;ng nên tin vào mọi thứ.
Cuộc đua vũ trang
Có hai cách tiếp cận với vấn đề: Một dựa vào phát triển các chương trình xác định hình ảnh do AI tạo ra sau khi chúng được sản xuất và chia sẻ qua mạng; hai là tập trung vào đánh dấu ảnh là thật hay do AI tạo ra ngay từ ban
đầu bằng một loại chữ ký số.
Reality Defender và Hive Moderation đang đi theo cách tiếp cận
đầu tiên. Với nền tảng của họ, người dùng có thể tải ảnh lên để quét và nhận th&oci
rc;ng báo về % ảnh thật hay giả. Reality Defender cho biết họ dùng “c&oci
rc;ng nghệ vân tay nội dung tạo sinh và deepfake độc quyền” để phát hiện video, âm thanh và hình ảnh do AI tạo ra.
C&oci
rc;ng cụ phát hiện hình ảnh do AI tạo ra của Reality Defender
Đây có thể là mảng kinh doanh béo bở nếu vấn đề trở thành nỗi lo thường trực của các cá nhân, doanh nghiệp. Các dịch vụ này miễn phí dùng thử sau đó tính phí. Hive Moderation thu 1,5 USD cho mỗi 1.000 hình ảnh, ngoài ra còn “hợp đồng thường niên” (có giảm giá). Giá của Reality Defender tùy theo các yếu tố khác nhau.
Ben Colman, CEO Reality Defender, cho rằng rủi ro đang nhân lên mỗi tháng. Bất kỳ ai cũng có thể làm ảnh giả bằng AI mà kh&oci
rc;ng cần đến bằng khoa học máy tính, thuê máy chủ, biết cách viết mã độc, mà chỉ cần tra Google. Kevin Guo, CEO Hive Moderation, gọi đây là “cuộc đua vũ trang”. Họ phải tìm ra mọi cách thức mới mà mọi người đang sử dụng để tạo nội dung giả, hiểu nó và đưa vào bộ dữ liệu để phân loại. Dù tỷ lệ nội dung do AI tạo ra hiện nay còn thấp, nó sẽ thay đổi chỉ trong vài năm.
Tiếp cận phòng vệ
Trong cách tiếp cận phòng vệ, các hãng c&oci
rc;ng nghệ lớn hơn tìm cách tích hợp một loại watermark vào ảnh để xác thực nó là thật hay giả ngay khi vừa được tạo ra. Nỗ lực chủ yếu do Liên minh nguồn gốc và xác thực nội dung (C2PA) dẫn dắt.
C2PA thành lập năm 2021 để tạo tiêu chuẩn kỹ thuật giúp chứng nhận nguồn gốc và lịch sử nội dung kỹ thuật số. Nó kết hợp những nỗ lực của Sáng kiến xác thực nội dung (CAI) do Adobe dẫn
đầu và Project Origin, do Microsoft và BBC hậu thuẫn, tập trung vào việc chống lại th&oci
rc;ng tin sai lệch trong tin tức kỹ thuật số. Các c&oci
rc;ng ty khác tham gia C2PA bao gồm Truepic, Intel và Sony.
Dựa trên hướng dẫn của C2PA, CAI tạo c&oci
rc;ng cụ nguồn mở để các c&oci
rc;ng ty tạo metadata chứa th&oci
rc;ng tin về hình ảnh. Nó giúp các nhà sáng tạo chia sẻ chi tiết về cách họ tạo ra hình ảnh một cách minh bạch. Bằng cách này, người dùng cuối có thể biết được ảnh đã thay đổi gì rồi tự quyết định tính xác thực của ảnh.
“Adobe kh&oci
rc;ng thu tiền từ nỗ lực này. Chúng tôi làm vậy vì nghĩ nó cần phải tồn tại”, Andy Parsons, Giám đốc cấp cao tại CAI, trả lời CNN. “Chúng tôi cho rằng nó là biện pháp phòng thủ nền tảng rất quan trọng chống tại th&oci
rc;ng tin sai sự thật”.
Giới c&oci
rc;ng nghệ muốn tạm dừng phát triển AI kh&oci
rc;ng vì lo ngại cho loài người?
Nhiều c&oci
rc;ng ty đã tích hợp tiêu chuẩn C2PA và c&oci
rc;ng cụ CAI vào ứng dụng. Chẳng hạn, c&oci
rc;ng cụ tạo ảnh AI Firefly vừa được Adobe đưa vào Photoshop. Microsoft cũng th&oci
rc;ng báo các tác phẩm AI do Bing Image Creator và Microsoft Designer tạo ra sẽ chứa chữ ký mã hóa trong vài tháng tới.
Các hãng khác như Google dường như theo đuổi chi?
??n thuật kết hợp cả hai cách tiếp cận. Hồi tháng 5, Google c&oci
rc;ng bố c&oci
rc;ng cụ About this image, giúp người dùng biết thời điểm bức ảnh được lập chỉ mục (index) trên Google. Ngoài ra, mọi hình ảnh do AI của Google tạo ra sẽ được đánh dấu trong tập tin gốc để cung cấp bối cảnh nếu ảnh được tìm thấy trên một nền tảng, website khác.
Dù doanh nghiệp c&oci
rc;ng nghệ đang cố gắng xử lý quan ngại xoay quanh hình ảnh do AI tạo ra cũng như tính toàn vẹn của truyền th&oci
rc;ng số, các chuyên gia trong lĩnh vực nhấn mạnh họ cần hợp tác với nhau và với chính phủ để giải quyết vấn đề. Kh&oci
rc;ng chỉ kêu gọi các nền tảng xem xét vấn đề một cách nghiêm túc, ngừng quảng bá nội dung giả mạo, còn cần đến các quy định quản lý cũng như giáo dục.
Theo Parsons, đây kh&oci
rc;ng phải thứ mà một c&oci
rc;ng ty, chính phủ hay cá nhân đơn lẻ nào có thể làm được. Chúng ta cần mọi người đều phải tham gia. Dù vậy, cùng lúc này, các hãng c&oci
rc;ng nghệ cũng đang thúc đẩy để đưa nhiều c&oci
rc;ng cụ AI hơn ra thế giới.
(Theo CNN)
Apple "tuyên chiến" với Meta, AI khiến gần 4.000 người Mỹ mất việc làm
Apple “tuyên chiến” với Meta; AI khiến gần 4.000 người Mỹ mất việc làm;... là những th&oci
rc;ng tin nổi bật trong bản tin C&oci
rc;ng nghệ t
hứ 7 tuần này.
Giới c&oci
rc;ng nghệ muốn tạm dừng phát triển AI kh&oci
rc;ng vì lo ngại cho loài người?
Giới c&oci
rc;ng nghệ kêu gọi dừng phát triển AI do kh&oci
rc;ng muốn bị đối thủ bỏ lại quá xa trong cuộc đua ứng dụng thương mại và quân sự.
Nguồn bài viết : Xổ số Max 3D Pro