Logo Zephyrnet

Kỹ sư xã hội không phù hợp với trí tuệ nhân tạo

Ngày:

Chúng ta vẫn đang ở những ngày đầu của trí tuệ nhân tạonhưng nó đang nhanh chóng trở thành một phần thiết yếu trong cách các tổ chức tự bảo vệ mình. Bằng cách sử dụng các thuật toán tiên tiến, các doanh nghiệp đang cải thiện khả năng ứng phó với sự cố, giám sát các mối đe dọa tiềm ẩn và giải mã các cảnh báo nguy hiểm trước khi chúng có hiệu lực. Nó cũng có thể được sử dụng để giúp xác định các lỗ hổng mà con người có thể đã bỏ qua.

Đây đều là những chức năng thiết yếu có thể nâng cao hệ thống phòng thủ mạng vượt lên trên các chiến lược phản động—và tốn thời gian—trong quá khứ. Tuy nhiên, nhiều tổ chức vẫn chưa tận dụng được ứng dụng quan trọng nhất của AI trong phòng thủ mạng: sự thiếu thiện cảm của nó.

Săn lùng sự tin tưởng của bạn

Được khởi xướng và thực hiện bởi một người có kỹ năng điện thoại hoặc email xuất sắc, kỹ thuật lừa đảo xã hội không liên quan đến các vụ hack công nghệ cao đang thống trị các tiêu đề. Thay vào đó, tin tặc đánh lừa đại lý dịch vụ khách hàng hoặc bất kỳ ai khác có thông tin mà tin tặc đang cố lấy được, chẳng hạn như số điện thoại di động liên quan đến xác thực hai yếu tố hoặc mật khẩu của tài khoản trò chơi sinh lợi. Theo Trung tâm Khiếu nại Tội phạm Internet của FBI, việc xâm phạm email doanh nghiệp (BEC), một hình thức kỹ thuật xã hội phổ biến, đã gây ra nhiều hơn 1.2 tỷ USD thua lỗ riêng năm 2018.

Mặc dù các ngân hàng và các tổ chức có giá trị cao khác có thể là mục tiêu chính nhưng không ai được miễn nhiễm. Một người phụ nữ bị mất 30,000 USD tiền điện tử sau khi bị tin tặc tấn công thành công đã thuyết phục nhà mạng không dây của cô kích hoạt một thẻ SIM mới, thẻ này sau đó được sử dụng để vi phạm xác thực hai yếu tố của cô đối với các tài khoản tài chính khác nhau. Ở một nơi khác sự cốUbiquiti Networks đã mất 39.1 triệu USD sau khi tin tặc mạo danh một nhân viên cấp cao và thuyết phục bộ phận tài chính hoàn tất một đợt chuyển tiền khổng lồ.

Ngay cả những thứ vô hại như chương trình phần thưởng cũng có thể thu hút sự quan tâm của kẻ đe dọa độc hại. Các doanh nghiệp hiện đang giải quyết vấn đề này bằng cách đào tạo nhân viên, sử dụng một bộ quy trình mà nhân viên phải luôn tuân theo.

Thật không may, mắt xích yếu nhất trong một an ninh mạng chain không phải là tường lửa—thường là do con người. Họ đang kinh doanh dịch vụ khách hàng và mong muốn làm hài lòng. Họ cũng rất tệ trong việc làm theo kịch bản và họ không thể chấp nhận được một kẻ lừa đảo thông minh, người biết tất cả những điều đúng đắn để nói. Nếu hacker tuyên bố rằng anh ta đã làm mất thẻ thưởng khách sạn và muốn một thẻ khác được gửi đến nhà anh ta, sau đó hỏi địa chỉ nào có trong hồ sơ, nhân viên tổng đài có thể sẽ đồng ý. Bây giờ một người lạ đã lấy được thông tin cá nhân của một khách hàng cụ thể.

Dừng lại trên đường đi của họ

Kết quả sẽ rất khác nếu đại lý khách hàng được sử dụng trí tuệ nhân tạo trước đó - cụ thể là AI đàm thoại. Một trong những công ty game lớn nhất thế giới đã trực tiếp trải nghiệm điều này khi công ty quyết định sử dụng AI đàm thoại làm tác nhân trò chuyện giao diện người dùng. Được biết đến với nhiều thương hiệu trò chơi điện tử thành công, công ty đã triển khai Amelia để giải quyết các vấn đề đơn giản về trò chơi cho khách hàng. Công ty nghĩ rằng Amelia có thể giảm bớt thời gian khách hàng chờ đợi giải pháp cho vấn đề của họ và cô đã làm như vậy. Tuy nhiên, sau một thời gian làm việc, Amelia cũng phát hiện ra những kẻ lừa đảo khi nhận thấy rằng người gọi đôi khi yêu cầu quyền truy cập vào tài khoản mà không có thông tin nhận dạng chính xác. Trong thế giới trò chơi, nơi các công cụ tài chính thực sự được đưa vào trò chơi và thông tin tài khoản tài chính được đính kèm, tiền đặt cược rất cao. Các đại lý dịch vụ khách hàng của con người đang bị lừa trong việc cung cấp thông tin xác thực tài khoản. Amelia, không có lý do gì để kể một câu chuyện nức nở, thì không.

Được lập trình để đưa ra quyết định dựa trên chính sách của công ty, Amelia không bị ảnh hưởng bởi các kỹ thuật lừa đảo xã hội. Cô ấy chỉ muốn chứng minh rằng bạn là chính mình và cô ấy làm điều đó bằng cách bám sát kịch bản và giới thiệu các hình thức xác thực mới khi hành vi có vẻ nguy hiểm.

Việc triển khai ban đầu đã thành công, ít nhất một phần. Amelia có thể giải quyết khiếu nại của khách hàng trong thời gian ngắn hơn so với nhân viên và hơn hết, cô còn giảm việc sử dụng tài khoản gian lận—nhưng sự hài lòng của khách hàng lại giảm sút. Làm thế nào người tiêu dùng có thể khó chịu trước một AI có thể ngăn thông tin tài khoản của họ bị đánh cắp?

Khi chúng tôi xem bản ghi những gì diễn ra giữa Amelia và khách hàng trong các cuộc trò chuyện bình thường và leo thang, lý do đã trở nên rõ ràng. Cô kiên trì với quy trình này và không để mình bị lừa bởi tin tặc, những kẻ lần lượt cho cô đánh giá mức độ hài lòng của khách hàng ở mức thấp trong khi trung tâm cuộc gọi của công ty trò chơi lại đưa ra những đánh giá tích cực cho Amelia.

Không có thời gian nào như thời gian thực

Ngay cả khi chúng tôi đưa AI đàm thoại ra ngoài môi trường dịch vụ khách hàng, nó vẫn mang lại lợi thế cạnh tranh cho các chuyên gia đánh giá mối đe dọa. Thay vì quét dữ liệu hoặc giám sát các mối đe dọa theo định kỳ và ngoại tuyến, AI đàm thoại nâng cao có thể phân tích dữ liệu và hành động trong thời gian thực, bên cạnh việc nắm bắt bối cảnh của các tương tác. Nếu người dùng muốn có số dư, AI đàm thoại tiên tiến sẽ hiểu đúng ý nghĩa—sau khi xác thực danh tính của người đó dựa trên thông tin người đó cung cấp. Điều này cho phép công nghệ thực hiện cuộc trò chuyện thực sự, trực tiếp với con người, mang lại cảm giác tự nhiên và sống động như thật ở giao diện người dùng, vì dữ liệu được xử lý trực tuyến ở phần phụ trợ.

AI đã giúp bạn có thể đánh giá cuộc trò chuyện ngay khi nó đang diễn ra. Nó có khả năng xử lý mọi phát ngôn để đánh giá rủi ro, điều này khiến nó trở thành một công cụ rất mạnh mẽ. Nếu khách hàng bị cáo buộc có hành vi vượt quá mức bình thường và có thể gây ra rủi ro, AI đàm thoại sẽ nhận ra điều đó và thực hiện hành động thích hợp. Điều này có thể đơn giản như việc thêm các bước bổ sung để xác thực danh tính.

Nếu không có AI, sẽ chỉ có thể kiểm tra một cuộc thảo luận để tìm dấu hiệu gian lận sau khi nó kết thúc. Đến lúc đó kẻ xấu có thể đã lấy tiền và bỏ chạy. Nhưng nếu AI thực hiện cuộc trò chuyện đó thay vì người thật, nó sẽ nhìn thấy mọi thứ đã xảy ra, phân tích từng từ và đưa ra quyết định theo thời gian thực xung quanh các mối đe dọa, rủi ro và bảo mật.

Đi đầu

Kỹ thuật xã hội cũng là một nguồn hack cũng như các cuộc tấn công phần mềm dựa trên thuật toán vũ phu. Cho dù nhắm mục tiêu vào khách sạn, nhà xuất bản trò chơi hay bất kỳ tổ chức nào khác, tin tặc đều tìm kiếm thông tin có thể đưa họ vào bên trong. Nhưng họ không cần phải thực hiện một cuộc tấn công cực kỳ tinh vi để có được thứ mình muốn; tất cả những gì họ cần là một câu chuyện hay, một chút kiên trì và một nhân viên tổng đài sẵn sàng phá vỡ các quy tắc.

Bằng cách cho phép AI đàm thoại dẫn đầu với tư cách là tác nhân trò chuyện giao diện người dùng, doanh nghiệp có thể giảm thiểu thiệt hại tiềm ẩn do kỹ thuật xã hội gây ra. Điều này có thể và nên được thực hiện với càng ít sự gián đoạn của khách hàng càng tốt. Trên thực tế, khách hàng của bạn thậm chí không nên nghĩ xem người ở đầu bên kia của cuộc trò chuyện là ai hoặc không phải là ai. Họ chỉ cần có thể nhập truy vấn của mình, nhận được những gì họ muốn và tiếp tục. Suy cho cùng, sự thuận tiện đó là cách chúng ta xác định tương lai.

Nguồn: https://techspective.net/2019/12/07/social-engineers-are-no-match-for-artificial-intelligence/?utm_source=rss&utm_medium=rss&utm_campaign=social-engineers-are-no-match-for -trí tuệ nhân tạo

tại chỗ_img

Tin tức mới nhất

tại chỗ_img