Logo Zephyrnet

Thị giác máy tính có phải là cách chữa trị cho các vụ xả súng ở trường học không? Có thể không

Ngày:

Bình luận Hơn 250 vụ xả súng hàng loạt đã xảy ra ở Mỹ trong năm nay và những người ủng hộ AI cho rằng họ có giải pháp. Không có gì ngạc nhiên khi không phải điều khiển súng, mà là công nghệ tốt hơn.

Công ty học máy Kogniz đã thông báo vào thứ Ba rằng họ đã thêm một bản sẵn sàng để triển khai mô hình phát hiện súng sang nền tảng tầm nhìn máy tính của nó. Chúng tôi cho biết, hệ thống có thể phát hiện súng mà camera an ninh nhìn thấy và gửi thông báo đến những người có nguy cơ, thông báo cho cảnh sát, khóa các tòa nhà và thực hiện các nhiệm vụ an ninh khác. 

Ngoài việc phát hiện súng cầm tay, Kogniz sử dụng các mô-đun thị giác máy tính khác của mình để nhận thấy các hành vi bất thường, chẳng hạn như trẻ em chạy nhanh xuống hành lang hoặc ai đó trèo qua cửa sổ, điều này có thể chỉ ra một tay súng đang hoạt động.

Nếu bạn đang thắc mắc về tỷ lệ dương tính giả hoặc tỷ lệ lỗi của mã, Kogniz cho biết nó có “AI nhiều lần” và “một nhóm xác minh con người được đào tạo” đang kiểm tra kết quả của phần mềm phát hiện. Hoặc bạn hoan nghênh mức độ xác nhận bổ sung đó, hoặc coi đó là công nghệ có khả năng ảnh hưởng đến con người ngay khi máy tính cần thiết nhất.

“[Giải pháp của chúng tôi là] giúp các công ty, cơ quan chính phủ, trường học và bệnh viện chuẩn bị và sau đó giúp giảm thiểu tác hại do một sự kiện bắn súng đang diễn ra gây ra,” Giám đốc điều hành Kogniz, Daniel Putterman cho biết.

Kogniz không phải là công ty thị giác máy tính đầu tiên tham gia vào trò chơi nhận dạng súng - có một danh sách đáng kể các công ty triển khai công nghệ tương tự và một số, chẳng hạn như ZeroEyes, chuyên về phát hiện súng. 

ZeroEyes nói trong một blog đăng bài. Công nghệ của ZeroEyes đã được triển khai tại các trường học ở 14 tiểu bang, bao gồm Trường trung học Oxford ở tàu điện ngầm Detroit, nơi một tay súng 15 tuổi giết chết XNUMX người và XNUMX người bị thương vào năm ngoái.

Các nhà cung cấp khác - chẳng hạn như Defendry, có bộ bảo mật bao gồm ứng dụng nút hoảng sợ, cảm biến tiếng súng âm thanh, máy bay không người lái phản ứng đầu tiên và AI phát hiện súng; và Omnilert - đang ở trong thị trường tăng trưởng đáng buồn này. Các công ty khác trong lĩnh vực phát hiện súng AI bao gồm Arcarith, Athena Securities và Scylla.

Thực sự có đủ thời gian không?

Vào năm 2019, phản ứng của cảnh sát đối với một vụ xả súng hàng loạt ở Dayton, Ohio, chỉ vỏn vẹn 32 giây, trong đó chín người chết. Một vụ nổ súng năm 2021 tại một cơ sở FedEx ở Indianapolis khiến XNUMX người thiệt mạng cũng đã kết thúc trước khi cảnh sát có thể đến, mặc dù chúng đã xảy ra chỉ trong vài phút. 

Cả hai trường hợp đó đều đặt ra câu hỏi liệu tính năng phát hiện súng của AI có thể giảm thời gian phản ứng đủ để cứu mạng người hay không. Đặc biệt nếu các sĩ quan quá sợ hãi hoặc không thực sự phản ứng, chẳng hạn như trong vụ giết người hàng loạt ở Uvalde.

Một số phương pháp ngăn chặn bắn hàng loạt dựa trên AI khác đã được đề xuất, chẳng hạn như súng thông minh sẽ không bắn nếu chúng phát hiện mục tiêu là con người. Những người khác đã đề xuất đào tạo AI dựa trên dữ liệu từ các vụ xả súng trong quá khứ, mua súng tại địa phương và dữ liệu kinh tế xã hội để tìm ra các xu hướng cho thấy một vụ nổ súng được lên kế hoạch, cũng như quét các phương tiện truyền thông xã hội để tìm các chỉ số tương tự. 

Cũng có Sai lệch AI, Một vấn đề được ghi chép đầy đủ thậm chí bộ dữ liệu đa dạng và đào tạo cân bằng dường như không thể giải quyết. Triển khai công nghệ nhận dạng khuôn mặt và súng vào năm 2020 tại một khu học chánh ở New York: các email giữa học khu và công ty đã triển khai hệ thống cho thấy mối quan tâm thường xuyên về nó xác định sai những thứ, chẳng hạn như cán chổi cho súng. 

Phát biểu với ấn phẩm Deseret News của Utah, nhà phân tích chính sách cấp cao của ACLU, Jay Stanley nói ông lo ngại rằng hệ thống thị giác máy tính có thể dẫn đến một thế giới "nơi mọi người tránh làm điều gì đó đơn giản như nhảy xuống vỉa hè vì sợ đặt máy phát hiện dị thường và bị cảnh sát thẩm vấn." 

Tuy nhiên, một khả năng sử dụng AI có thể có nhiều hứa hẹn hơn: một năm 2018 nghiên cứu từ Trung tâm Y tế Bệnh viện Nhi Cincinnati cho thấy rằng phân tích AI về các buổi trị liệu đồng ý với đánh giá nguy hiểm của bác sĩ tâm thần và cố vấn 91% thời gian. Việc bổ sung dữ liệu nhân khẩu học và kinh tế xã hội chỉ cải thiện kết quả trong việc xác định thanh niên có nguy cơ thực hiện hành vi bạo lực. 

Với rất nhiều phức tạp tiềm ẩn, liệu học máy có thực sự sẵn sàng để ngăn chặn giết người hàng loạt?

Bạo lực súng là kẻ giết người số một trẻ em và thanh thiếu niên ở Mỹ, trung bình cướp đi sinh mạng của 12 trẻ em và làm bị thương thêm 32 người mỗi ngày. AI có thể giúp ích, nhưng không giải quyết được những thiếu sót của nó, có lẽ cũng cần phải có các phương pháp tiếp cận ít công nghệ hơn. Chăm sóc sức khỏe tâm thần mạnh mẽ hơn, phổ biến rộng rãi hơn có thể là một khởi đầu tốt.

Đầu tháng này, Tổng thống Biden gọi là vì, trong số những thứ khác, lệnh cấm vũ khí tấn công, mở rộng kiểm tra lý lịch và giới hạn sức chứa băng đạn, mà ông gọi là “các biện pháp hợp lý, thông thường”. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img