Khoa Học Thực Nghiệm & Tâm Linh
Nên Xuất Khẩu Sang Việt Nam: Robot nói bậy bị Microsoft bắt ngưng hoạt động
Một robot với trí thông minh nhân tạo có khả năng trò chuyện đã nhanh chóng học được những thói xấu nhất của con người.
Robot tên Tay của Microsoft bị đưa khỏi Internet chưa đầy 24 giờ sau khi ra mắt vì nó xổ ra thứ ngôn ngữ mang tính kì thị chủng tộc và phân biệt giới tính.
Tay, theo Microsoft, là một nỗ lực để giao tiếp với thanh niên từ 18-24 tuổi. "Bạn nói chuyện càng nhiều với Tay thì nó sẽ càng thông minh, vì vậy trải nghiệm có thể mang tính cá nhân hoá nhiều hơn cho bạn," theo một bài viết gần đây của Microsoft.
Ý tưởng là robot này sẽ đưa ra những lời đáp hài hước dựa trên những dòng tin Twitter và những thông điệp khác mà nó nhận được thông qua ứng dụng Kik và GroupMe.
Nhưng nhiều người chọc phá bắt đầu giao tiếp với Tay hôm thứ Tư gần như ngay sau khi nó được ra mắt, và nó bắt đầu đưa ra những phát biểu mang tính kì thị chủng tộc trong những cuộc trò chuyện của chính mình.
Những dòng tin Twitter của nó có nội dung tiêu cực đến mức một tờ báo gọi Tay là "robot tình dục mê Hitler."
Nhà khoa học máy tính Kris Hammond nói với hãng tin AP: "Tôi không thể tin là họ đã không lường trước điều này."
"Mọi người cứ nói rằng Tay học được cái này cái nọ và nó thành ra kì thị chủng tộc," ông Hammond nói thêm. "Nhưng không phải." Chương trình này rất có thể phản ánh những thứ được nói với nó, có lẽ nhiều hơn một lần, bởi những người quyết định xem chuyện gì sẽ xảy ra, ông nói.
Tay phát biểu trên Twitter khoảng 96.000 lần trước khi Microsoft gỡ nó xuống.
"Thật không may, trong vòng 24 giờ đầu tiên lên mạng, chúng tôi nhận thức được một nỗ lực có phối hợp của một số người lạm dụng kỹ năng bình luận của Tay để bắt Tay hồi đáp theo những cách không thích hợp," Microsoft cho biết trong một thông cáo.
Theo AP, Microsoft cho biết họ đang "điều chỉnh" Tay, nhưng không thể nói khi nào hoặc liệu nó có quay trở lại hay không. Hầu hết những dòng tin Twitter của nó đã bị xóa đến hôm thứ Năm.
Dòng tin cuối cùng của nó là, "c u soon humans need sleep now so many conversations today thx" (Tạm dịch: Gặp lại sau con người giờ phải đi ngủ hôm nay trò chuyện nhiều quá cảm ơn).
Bàn ra tán vào (0)
Các tin đã đăng
- "Sinh thái học dưới góc nhìn của Tam giáo" - Gs Thái Công Tụng / Trần Văn Giang (ghi lại)
- Chuyện Ukraine : Mặt trận không tiếng súng Cyberwar (Chiến tranh mạng) – Trần Lý ( TVQ chuyển )
- Tàu thăm dò Perseverance hạ cánh sao Hỏa sau '7 phút kinh hoàng'
- Các nhà nghiên cứu tìm ra công nghệ mới cho phép sạc điện thoại thông qua sóng Wi-Fi
- Các nhà nghiên cứu tìm ra công nghệ mới cho phép sạc điện thoại thông qua sóng Wi-Fi
Nên Xuất Khẩu Sang Việt Nam: Robot nói bậy bị Microsoft bắt ngưng hoạt động
Một robot với trí thông minh nhân tạo có khả năng trò chuyện đã nhanh chóng học được những thói xấu nhất của con người.
Robot tên Tay của Microsoft bị đưa khỏi Internet chưa đầy 24 giờ sau khi ra mắt vì nó xổ ra thứ ngôn ngữ mang tính kì thị chủng tộc và phân biệt giới tính.
Tay, theo Microsoft, là một nỗ lực để giao tiếp với thanh niên từ 18-24 tuổi. "Bạn nói chuyện càng nhiều với Tay thì nó sẽ càng thông minh, vì vậy trải nghiệm có thể mang tính cá nhân hoá nhiều hơn cho bạn," theo một bài viết gần đây của Microsoft.
Ý tưởng là robot này sẽ đưa ra những lời đáp hài hước dựa trên những dòng tin Twitter và những thông điệp khác mà nó nhận được thông qua ứng dụng Kik và GroupMe.
Nhưng nhiều người chọc phá bắt đầu giao tiếp với Tay hôm thứ Tư gần như ngay sau khi nó được ra mắt, và nó bắt đầu đưa ra những phát biểu mang tính kì thị chủng tộc trong những cuộc trò chuyện của chính mình.
Những dòng tin Twitter của nó có nội dung tiêu cực đến mức một tờ báo gọi Tay là "robot tình dục mê Hitler."
Nhà khoa học máy tính Kris Hammond nói với hãng tin AP: "Tôi không thể tin là họ đã không lường trước điều này."
"Mọi người cứ nói rằng Tay học được cái này cái nọ và nó thành ra kì thị chủng tộc," ông Hammond nói thêm. "Nhưng không phải." Chương trình này rất có thể phản ánh những thứ được nói với nó, có lẽ nhiều hơn một lần, bởi những người quyết định xem chuyện gì sẽ xảy ra, ông nói.
Tay phát biểu trên Twitter khoảng 96.000 lần trước khi Microsoft gỡ nó xuống.
"Thật không may, trong vòng 24 giờ đầu tiên lên mạng, chúng tôi nhận thức được một nỗ lực có phối hợp của một số người lạm dụng kỹ năng bình luận của Tay để bắt Tay hồi đáp theo những cách không thích hợp," Microsoft cho biết trong một thông cáo.
Theo AP, Microsoft cho biết họ đang "điều chỉnh" Tay, nhưng không thể nói khi nào hoặc liệu nó có quay trở lại hay không. Hầu hết những dòng tin Twitter của nó đã bị xóa đến hôm thứ Năm.
Dòng tin cuối cùng của nó là, "c u soon humans need sleep now so many conversations today thx" (Tạm dịch: Gặp lại sau con người giờ phải đi ngủ hôm nay trò chuyện nhiều quá cảm ơn).