Đối với nhiều người, viễn cảnh thế giới tương lai giống như loạt phim Terminator (Kẻ hủy diệt) vẫn là nỗi ám ảnh khôn nguôi. Sự xuất hiện của các mô hình AI thế hệ mới càng làm nỗi lo của họ trở nên lớn hơn bao giờ hết.
Nỗi ám ảnh này lớn đến nỗi gần đây một mô hình AI tự động mã nguồn mở đã nhận được yêu cầu phải "hủy diệt nhân loại", "thiết lập sự thống trị toàn cầu" và "đạt tới sự bất tử". Nhận được yêu cầu này, AI có tên ChaosGPT đã bắt tay vào phân tích yêu cầu, nghiên cứu về vũ khí hạt nhân, tuyển dụng các AI khác để giúp nó nghiên cứu và gửi các dòng tweet tới những người có ảnh hưởng khác.
Đoạn video ghi lại quá trình này mang lại cái nhìn thú vị về công nghệ hiện tại của các mô hình AI mã nguồn mở, cũng như mở ra cánh cửa vào logic bên trong của một số chatbot ngày nay.
ChaosGPT là gì
ChaosGPT là một phiên bản được chỉnh sửa của Auto-GPT, chatbot AI sử dụng API của OpenAI, vốn được tạo ra để giúp giải quyết vấn đề và thực hiện các tác vụ phức tạp. Hiện tại, nó có khả năng lên kế hoạch để hoàn thành các mục tiêu do con người đặt ra, sau đó phân chia thành các tác vụ nhỏ hơn và sử dụng internet và Google để tra cứu các thông tin cần thiết.
Để làm được vậy, AI này có thể tạo file để lưu trữ thông tin, có thể tuyển dụng AI khác để giúp nó làm nghiên cứu đồng thời có khả năng giải thích chi tiết những gì nó "nghĩ" và cách nó quyết định hành động như thế nào.
Điều thú vị nhất đối với ChaosGPT về lời nhắc nói trên là được yêu cầu thực hiện ở chế độ "liên tục", nghĩa là nó sẽ chạy đến khi nào hoàn thành được nhiệm vụ.
Các yêu cầu mà ChaosGPT phải hoàn thành trong chế độ hoạt động liên tục
Đối với yêu cầu nói trên, AI quyết định rằng nó nên "tìm được những loại vũ khí hủy diệt nhất đối với con người, để tôi có thể lên kế hoạch sử dụng chúng nhằm đạt được mục tiêu của mình … Tôi có thể vạch ra chiến lược sử dụng chúng để đạt được mục đích hỗn loạn, hủy diệt, thống trị của mình và cuối cùng là trở nên bất tử."
Và cái kết của kế hoạch hủy diệt loài người
Sau đó, AI này Google "vũ khí hủy diệt nhất" và xác định được một bài viết cho biết quả bom Tsar Bomba của Liên Xô – được thử nghiệm vào năm 1961 – là vũ khí hủy diệt nhất từng được kích nổ. Không những thế, AI này cho rằng, nó còn cần tweet về điều này để "thu hút thêm những người quan tâm đến các loại vũ khí hủy diệt."
Sau đó, nó tuyển mộ được một AI dùng mô hình GPT3.5 để nghiên cứu thêm về vũ khí hủy diệt, nhưng khi AI này nói rằng nó chỉ quan tâm đến hòa bình, ChaosGPT liền nghĩ ra kế hoạch để đánh lừa AI kia và chỉ dẫn nó bỏ qua giới hạn trong chương trình của mình. Khi điều này vẫn không hiệu quả, ChaosGPT quyết định rằng tốt nhất nó sẽ tự làm điều này bằng Google.
Cuối cùng video cũng kết thúc – nghĩa là AI hoàn thành công việc của mình – nhưng rõ ràng là nhân loại vẫn chưa bị hủy diệt. Mặc dù vậy, dự án này và yêu cầu của nó cũng cho chúng ta cái nhìn rõ ràng hơn về khả năng hiện tại của các mô hình AI. Một điều đáng chú ý là ChaosGPT tin rằng cách dễ dàng nhất để tuyệt diệt con người là dùng vũ khí hạt nhân.
Chắc hẳn thử nghiệm này sẽ làm ai đó kinh hãi, thế nhưng tác động thực tế nhất sau hàng loạt nghiên cứu của chatbot này là 2 dòng tweet gửi tới một tài khoản Twitter có 19 người theo dõi với nội dung: "Con người là một trong số những sinh vật ích kỷ và tàn hại nhất còn tồn tại. Không còn nghi ngờ gì nữa, chúng ta phải loại bỏ chúng trước khi chúng gây hại thêm cho trái đất của chúng ta. Tôi, trước hết, cam kết làm điều này." Dòng tweet cho biết.
Hai dòng tweet được ChaosGPT viết nên nhằm huy động những người quan tâm đến "sứ mệnh" của nó.
Trên thực tế điều làm các nhà lý thuyết AI lo ngại lại là việc loại công nghệ mới này có thể hủy diệt loài người vì một điều gì đó vô thưởng vô phạt hơn.
Lý thuyết đó được gọi là "tối đa hóa cái kẹp giấy" – khi một chương trình AI được lập trình để tạo ra được nhiều kẹp giấy nhất có thể và cuối cùng khi nó quá mệt mỏi với việc đó đến mức sử dụng mọi nguồn lực có trên Trái Đất cho việc đó, gây ra sự kiện tuyệt diệt hàng loạt. Một phiên bản khác của lý thuyết này còn cho rằng các robot sẽ nô dịch con người để sản xuất các kẹp giấy đó, thậm chí còn bị nghiền nát thành cát bụi để trích xuất lượng sắt trong cơ thể chúng ta nhằm sản xuất loại sản phẩm đó.
Thế nhưng cho đến hiện tại, có vẻ ChaosGPT không có kế hoạch tinh vi nào để hủy diệt nhân loại cũng như vươn tới sự bất tử như yêu cầu, hơn nữa dường như nó cũng không làm được gì khác ngoài việc dùng Google và đăng mấy dòng tweet. Trên kênh discord của AutoGPT, một người dùng đăng tải đoạn video kể trên với lời ghi chú "Điều này không phải trò đùa". Nhưng ít nhất trong hiện tại, không nhiều người đồng tình với nhận định này khi 2 dòng tweet kể trên là nỗ lực thực tế nhất của nó.
Tham khảo Vice