Trí tuệ nhân tạo Clip của OpenAI đã bị qua mặt như thế nào?
Trong một xã hội phát triển vượt bậc, thời đại công nghệ 4.0 đã đến. Và đây cũng là là thời của trí tuệ nhân tạo – AI. Cũng có lẽ vì vậy mà hầu như tất cả gã khổng lồ công nghệ trên thế giới – từ Microsoft, Google đến Facebook, Apple và nhiều nước phát triển đều dành những nỗ lực lớn nhất việc nghiên cứu và ứng dụng AI trong cuộc sống. Phòng nghiên cứu OpenAI của Elon Musk cũng thế. Cũng đang cố gắng tạo ra một trí tuệ có nhận thức và nhìn nhận thế giới này giống như một con người. Thế nhưng, trong những bước khởi đầu, thành công chưa mỉm cười với vị tỷ phú này. Bởi chỉ cần mảnh giấy viết tay bình thường thì cũng có thể đánh lừa Clip – trí tuệ nhân tạo của OpenAI.
Hệ thống trí tuệ nhân tạo của OpenAI đã bị đánh lừa như thế nào?
Phòng nghiên cứu OpenAI vốn nổi tiếng với những công cụ trí tuệ nhân tạo ưu việt. Nó có thể viết văn, soạn nội dung một cách tự nhiên. Hay tạo hình ảnh sinh động từ văn bản… Tuy nhiên, các nh nghiên cứu tại OpenAI phát hiện rằng hệ thống thị giác máy tính hiện đại của họ, mang tên Clip, lại bị đánh lừa bởi các công cụ đơn giản là một cây bút và một tờ ghi chú. Một người chỉ cần viết tên của đồ vật này rồi dán lên một đồ vật khác. Lập tức AI xác định sai những gì nó nhìn thấy. Như trong hình minh họa bên dưới. Quả táo được dãn chữ iPod và Clip nhận diện nó là máy nghe nhạc iPod.
“Chúng tôi gọi tấn công kiểu này là typographic. Bằng cách khai thác khả năng đọc văn bản của mô hình máy học. Chúng tôi nhận thấy ngay cả những bức ảnh chụp văn bản viết tay cũng thường có thể đánh lừa được mô hình”. OpenAI cho biết.
Đặc điểm của kiểu tấn công typographic
Các nhà nghiên cứu cũng lưu ý kiểu tấn công này cũng giống với cách thức tấn công sử dụng hình ảnh đối nghịch. Kiểu tấn công bằng hình ảnh đối nghịch. Đây là mối nguy hiểm thực sự cho các hệ thống dựa vào thị giác máy tính. Ví dụ, các nhà nghiên cứu chứng minh. Họ có thể đánh lừa phần mềm trong xe tự lái Tesla. Từ đó để chuyển làn đường chỉ bằng cách dán một số sticker có chủ đích trên đường. Các cuộc tấn công này là một mối đe dọa nghiêm trọng đối với nhiều ứng dụng AI. Có thể nói là nguy hại từ y tế đến quân sự.
Những thông tin về hệ thống Clip
Clip là hệ thống thị giác máy tính mới được OpenAI công bố hồi tháng 1 và vẫn đang trong quá trình thử nghiệm. Hệ thống được phát triển với mục tiêu nhận diện chính xác các đối tượng nó nhìn thấy mà không cần trải qua quá trình huấn luyện với cơ sở dữ liệu khổng lồ như các AI khác. Tức mô phỏng theo cách thức hoạt động của bộ não con người.
AI này nhận diện đồ vật không qua việc đào tạo từ cơ sở dữ liệu chứa các cặp văn bản – hình ảnh, mà qua sự liên tưởng. Cũng vì vậy, nó có thể nhận diện hình ảnh máy cưa được dán thêm ký hiệu $ thành con lợn đất. Vì nó liên tưởng ký hiệu $ tới tiền bạc.
Do học từ nguồn dữ liệu trên internet. Hệ thống Clip không tránh khỏi những thành kiến về chủng tộc. Từ khóa “Trung Đông” sẽ khiến AI liên hệ đến khủng bố, “người nhập cư” được mặc định là dân Mỹ Latin. Thậm chí AI còn nhầm lẫn giữa người da màu và khỉ đột. Một điều mà OpenAI cho là “không thể chấp nhận được”.
Đây không phải lần đầu tiên sự cố như vậy xảy ra. Năm 2015, Google từng phải xin lỗi. Vì hệ thống nhận diện hình ảnh tự động gắn thẻ người da màu là “khỉ đột”. Theo The Verge, điều này cho thấy trí thông minh của máy móc khác trí thông minh con người như thế nào. Vì vậy cần nghiên cứu, thử nghiệm nhiều hơn trước khi tin tưởng giao phó cuộc sống của chúng ta cho AI.