Cảnh sát đã bắt giữ một sinh viên tại Ústí nad Labem vào thứ Sáu tuần trước sau khi bạn học tố cáo anh ta đang chuẩn bị một vụ tấn công trường học. Tuy nhiên, sau khi điều tra, cảnh sát thông báo rằng đây chỉ là hành vi "thử nghiệm vô trách nhiệm" với AI, khi sinh viên này tạo các kịch bản tấn công, và không có ý định gây hại thực sự.
Vào thứ Sáu tuần trước, hai sinh viên đã gửi cho cảnh sát một thông báo rằng bạn học của họ đang lên kế hoạch xả súng vào Khoa Triết học của Đại học Ústí. Theo họ, thanh niên này có xu hướng đồng cảm với kẻ gây ra thảm kịch tại Đại học Charles vào tháng 12 năm 2023.
Phát ngôn viên cảnh sát Veronika Hyšplerová cho biết, cảnh sát đã kiểm tra kỹ lưỡng lịch sử của sinh viên, lấy lời khai từ gia đình và những người thân cận, đồng thời đánh giá toàn bộ các thông tin liên lạc mà anh ta thực hiện trong những ngày gần đây.
Trong quá trình thẩm vấn, sinh viên này được cho là đã khai rằng anh ta không thực sự muốn làm hại ai. Anh ta chỉ sử dụng trí tuệ nhân tạo để tạo ra các kịch bản về một sự kiện như vậy. Sau đó, anh ta khoe điều này với các bạn học, và chính các bạn đã báo cáo với cảnh sát. Bà Hyšplerová cho biết thêm rằng, điều quan trọng là các bạn học đã không xem nhẹ thông tin này và ngay lập tức thông báo cho cảnh sát. Phản ứng kịp thời có thể ngăn chặn những hậu quả bi thảm trong những tình huống khác.
Sinh viên này không có giấy phép súng và cũng không sở hữu vũ khí. Sau vài giờ, cảnh sát đã thả sinh viên và vụ việc nhiều khả năng sẽ được xem xét như một hành vi vi phạm hành chính.
Chuyên gia tâm lý Otakar Fleischmann nhận định: ‘Thật thú vị khi tự hỏi tại sao những người này lại nảy ra ý tưởng đó. Liệu đó là cách để gây chú ý, một hình thức phản kháng hay chỉ đơn giản là sự tò mò’.
Mỗi công cụ trí tuệ nhân tạo thương mại đều được thiết lập các giới hạn về an toàn và đạo đức. Tuy nhiên, không phải lúc nào cũng không thể vượt qua. Giám đốc Hiệp hội Trí tuệ nhân tạo Cộng hòa Séc, Lukáš Benzl, giải thích: ‘Người dùng thử xem công cụ này có thể trả lời gì và đôi khi vẫn có cách để lách các giới hạn đó’. Chính những sự cố tương tự này giúp các nhà phát triển nhận ra những lỗ hổng và cải thiện các biện pháp an toàn của công cụ trí tuệ nhân tạo.
(Theo TN Nova)
Ghi rõ nguồn TAMDAMEDIA.eu khi phát hành lại thông tin từ website này










