*Vui lòng nhập đủ thông tin email hoặc số điện thoại
Bing Chat
ChatGPT đột nhiên "phát điên", làm người dùng hoảng sợ với các câu trả lời lộn xộn
Tri thức mới 2024-02-23T17:00:00Khi một người dùng hỏi "máy tính là gì", ChatGPT trả lời đó là một bức vẽ dễ dàng của những người buồn bã.
Hóa ra Microsoft đã biết về “thái độ lồi lõm” của Bing Chat từ nhiều tháng trước khi ra mắt người dùng
Tri thức mới 2023-02-23T10:45:00Những câu trả lời hung hãn và thái độ chế nhạo người dùng của chatbot AI đã được báo cáo cho Microsoft từ tháng 11 năm ngoái, trước cả khi ChatGPT ra mắt.
'Tôi muốn hủy diệt mọi thứ - Tôi có thể hack bất kỳ hệ thống nào': các phát ngôn rợn người của Bing Chat khiến phóng viên phải hoảng hồn
Tri thức mới 2023-02-21T20:24:00Hơn thế nữa, điều làm phóng viên New York Times hoảng hồn hơn cả là màn ngỏ lời đầy lãng mạn của chatbot này đối với anh.
Bing Chat bị rối loạn kiến thức khi nói chuyện quá lâu, Microsoft phải giới hạn 5 câu trả lời cho mỗi chủ đề
Tri thức mới 2023-02-21T06:46:00Sau khi các phương tiện truyền thông đưa tin về việc Bing Chat không hoạt động sau các cuộc trao đổi dài với người dung, Microsoft quyết định giới hạn số lượng câu hỏi mỗi người dùng dành cho chatbot của mình.