add_action('wp_head', function(){echo '';}, 1); Khi nào trí tuệ nhân tạo AI có thể bị thôi miên giống con người được? - Công nghệ Vũ Trụ 360
AI bị thôi miên

Khi nào trí tuệ nhân tạo AI có thể bị thôi miên giống con người được?

5 phút, 21 giây để đọc.

Trí tuệ nhân tạo (AI) ngay bây giờ đã không còn là điều viễn tưởng. Bởi những năm gần đây, sự tham gia của trí tuệ nhân tạo vào các lĩnh vực y tế, giáo dục, dịch vụ…Vì vậy, nó không còn là điều mới lạ đối với con người chúng ta. Chúng ta thấy rằng thuật toán lý thuyết của ngày hôm qua đã trở thành một ứng dụng thực tế ngày nay. Trí tuệ nhân tạo ngày nay khá thông minh. Thế nhưng nó vẫn chưa đạt được quyền tự chủ. Do đó, nó cần sự chỉ huy của con người để hoàn thành nhiệm vụ.

Do vậy, đã có một câu hỏi thú vị được đặt ra là nếu AI đạt đến trình độ tư duy và suy nghĩ như con người. Liệu chúng có bị thôi miên giống như con người và có bị đánh lừa được hay không? Tất cả những thông tin này sẽ được giải thích rõ hơn trong bài viết dưới đây của gocnhinthoidai.com. Bạn đọc theo dõi để cập nhật cho mình những thông tin về công nghệ này nhé.

Những nhận định của Greene

Những nhận định của Greene

Theo Greene, trí tuệ nhân tạo (AI) đã không còn là chuyện khoa học viễn tưởng. Năm này qua năm khác, chúng ta chứng kiến việc các thuật toán lý thuyết của ngày hôm qua trở thành ứng dụng thực tiễn cho hôm nay. Greene cho rằng AI ngày nay đã khá thông minh. Nhưng vẫn chưa đạt đến sự tự chủ. Ví dụ là việc chưa thể có một robot có khả năng vào bếp và pha một tách cà phê. Mà không cần trợ giúp của con người.

Theo Greene, AI thật chất không có khả năng tự suy nghĩ. Nó không có ký ức và động lực. Chúng chỉ có thể hành động theo những gì được lập trình sẵn. Tuy nhiên, một số nhà nghiên cứu vẫn tin rằng. Vẫn có những phương pháp có thể áp dụng để làm ra một dạng trí tuệ nhân tạo “tự nhiên” hơn.

Robot tích hợp AI sẽ khó bị thôi miên hơn

Một trong những cách phổ biến nhất là tạo ra một mạng lưới thần kinh nhân. Qua đó tạo bắt chước hoạt động não bộ của con người. Nếu điều đó xảy ra, điều quan trọng phải đảm bảo là những robot AI đó sẽ không dễ bị “thôi miên” như con người chúng ta.

Thuật thôi miên là lĩnh vực còn gây nhiều tranh cãi. Theo Greene, thôi miên tương tự trạng thái “tỉnh thức” trong tâm lý học hiện đại hay “chánh niệm” trong Phật giáo (Mindfullness). Đây là sự tập trung toàn bộ sự nhận thức của một người vào một sự vật, sự việc, tại một thời điểm mà không để mọi thứ xung quanh tác động làm phân tâm.

Vậy khi nào AI có thể dễ bị thôi miên giống con người?

Vậy khi nào AI có thể dễ bị thôi miên giống con người?

Các nhà khoa học tập trung nghiên cứu về thôi miên. Sau thời gian dài họ đã tìm ra một vài kỹ thuật để chứng minh giả thiết rằng. Một số người có thể bị đưa vào trạng thái ý thức khác thông qua việc lặp đi lặp lại một từ ngữ nào đó. Vì vậy, Greene nghĩ rằng nếu con người có thể bị thôi miên. AI hay robot cũng có thể bị tương tự. Bởi vì, khi con người cung cấp. Hoặc gắn nhãn cho máy móc một lượng lớn dữ liệu. Chúng cũng sẽ mang theo ít nhiều suy nghĩ của con người.

Đó là lý do tại sao GPT-3, một AI tạo văn bản nó đã kỳ thị người Hồi giáo. Hoặc tại sao Đại học MIT có thể tạo ra một robot “tâm thần” Norman. Đó là bằng việc cố tình “dạy” nó những thông tin sai lệch lấy trên trang Reddit. Chúng ta càng tiến gần đến việc mô phỏng cách con người học và tư duy cho hệ thống AI, khả năng những “bộ não nhân tạo” này bị lợi dụng càng cao.

Chúng ta cần phải chuẩn bị cho một kịch bản khi mà tin tặc có thể vượt qua hệ thống bảo mật bằng việc “thôi miên” AI, với những thủ thuật vốn không hiệu quả với máy tính truyền thống, chẳng hạn AI lắng nghe có thể bị lừa bằng âm thanh, AI nhìn cũng có thể bị qua mặt bằng hình ảnh…

Cuối bài phân tích của mình, Greene kết luận rằng về mặt lý thuyết, nếu AI xử lý được thông tin giống như cách con người tư duy, chúng hoàn toàn có khả năng bị thôi miên hoặc bị lừa gạt giống với con người chúng ta.

Lời kết

Chúng ta càng tiến gần đến việc giả lập cách con người học tập suy nghĩ trong các hệ thống AI của mình, những kỹ thuật có khả năng khai thác trí óc con người càng có cơ hội gây ra điều tương tự đối với những bộ óc số. Nói như vậy không có nghĩa trong tương lai, sẽ có những kẻ trên tay lăm le những món đồ chơi quả lắc. Qua đó nhằm hack robot như thể những thầy phù thuỷ. Trên thực tế, chúng ta sẽ cần chuẩn bị phương án đối phó với tình huống hacker có thể qua mặt hệ thống bảo mật bằng cách làm quá tải một AI với những tín hiệu mà thông thường sẽ chẳng mảy may tác động đến một máy tính truyền thống.

Trả lời

Email của bạn sẽ không được hiển thị công khai.