제퍼넷 로고

균형 조정법: 생성 AI 시대에서 인간 전문성의 가치 – DATAVERSITY

시간

보안과 관련하여 인간은 기업에서 가장 약한 연결고리로 간주됩니다. 당연히 그렇습니다. 95% 이상 사이버 보안 사고의 80%가 사람의 실수로 인해 발생합니다. 인간은 변덕스럽고 오류가 많으며 예측할 수 없기 때문에 조직의 시스템에 침입하려는 사이버 범죄자의 쉬운 표적이 됩니다.  

이로 인해 기계에 대한 의존도가 더욱 중요해졌습니다. 지금까지 우리는 코드를 진실로 사용하여 작동하는 기계를 신뢰할 수 있었습니다. 코드의 취약점이나 인간 운영자의 사회적 결함으로 인해 손상될 수 있지만 문제는 일반적으로 명확한 솔루션으로 해결됩니다. 

그러나 생성 적 AI (GenAI) 및 큰 언어 모델 (LLM), 조직은 이제 AI를 속여 의도하지 않은 작업을 수행하도록 하는 사회 공학 공격에 직면하고 있습니다. AI에 더 많은 부하를 걸면서 이러한 새로운 공격 패턴이 나타나는 것을 보는 것은 흥미로울 것입니다.

이러한 딜레마에 직면하여 복잡하고 진화하는 AI 보안 환경을 탐색하는 것은 다시 한 번 인간의 몫입니다. 이를 위해서는 CISO가 AI의 장점과 단점을 명확하게 전달하고 AI 기반 제품 및 기능과 관련된 보안 고려 사항의 긴 목록을 인식해야 합니다. 

생성적 AI의 급격한 구현으로 새로운 사이버 보안 문제 발생

우선, GenAI 및 LLM과 관련된 일반적인 문제는 AI 생성 콘텐츠에 대한 과도한 의존입니다. 사람의 입력이나 감독 없이 오해의 소지가 있거나 잘못된 정보를 확인하거나 확인하지 않고 AI 생성 콘텐츠를 신뢰하면 잘못된 의사 결정을 알리고 비판적 사고를 감소시키는 잘못된 데이터가 전파될 수 있습니다. LLM은 환각을 일으키는 것으로 알려져 있으므로 일부 허위 정보는 악의적인 의도로 인해 발생하지 않을 수도 있습니다.

같은 맥락에서, GenAI의 발전에 따라 도입되는 안전하지 않은 코드의 양 역시 사전에 예상하지 못하더라도 CISO에게 중요한 과제가 될 것입니다. AI 엔진은 보안 취약점이 있는 버그가 있는 코드를 작성하는 것으로 알려져 있습니다. 적절한 인간 감독 없이 GenAI는 적절한 기술 기반이 없는 사람들에게 코드를 출시할 수 있는 권한을 부여합니다. 이는 이러한 도구를 부적절하게 사용하는 조직의 소프트웨어 개발 수명주기 전반에 걸쳐 보안 위험을 증가시킵니다.

데이터 유출은 또 다른 일반적인 문제입니다. 경우에 따라 공격자는 프롬프트 주입을 사용하여 AI 모델이 다른 사용자로부터 학습한 민감한 정보를 추출할 수 있습니다. 대부분의 경우 이는 무해할 수 있지만 악의적인 사용이 확실히 배제되는 것은 아닙니다. 악의적인 행위자는 AI 도구가 기억한 민감한 정보를 추출하는 것을 목표로 세심하게 제작된 프롬프트를 사용하여 의도적으로 AI 도구를 조사하여 민감하거나 기밀 정보가 유출될 수 있습니다.

AI는 일부 사이버 보안 격차를 증가시킬 수 있지만 다른 격차를 해소할 상당한 잠재력이 있음

마지막으로, GenAI 및 LLM의 확산은 몇 가지 이유로 업계의 공격 표면 감소 중 일부를 퇴보시킬 것으로 이해됩니다. 첫째, GenAI로 코드를 생성하는 기능은 누가 소프트웨어 엔지니어가 될 수 있는지에 대한 기준을 낮추어 결과적으로 코드가 약해지고 보안 표준도 더욱 약해집니다. 둘째, GenAI에는 방대한 양의 데이터가 필요합니다. 이는 데이터 침해의 규모와 영향이 기하급수적으로 증가한다는 것을 의미합니다. 셋째, 새로운 기술과 마찬가지로 개발자는 구현이 악용되거나 남용될 수 있는 방식을 완전히 인식하지 못할 수 있습니다. 

그럼에도 불구하고 균형 잡힌 관점을 채택하는 것이 중요합니다. Gen AI의 코드 생성 촉진은 우려를 불러일으킬 수 있지만 사이버 보안 환경에 긍정적인 특성도 제공합니다. 예를 들어 XSS(Cross-Site Scripting) 또는 SQL 삽입과 같은 보안 취약점을 효과적으로 식별할 수 있습니다. 이러한 이중적 성격은 미묘한 차이를 이해하는 것의 중요성을 강조합니다. AI를 단지 해로운 것으로 보는 것이 아니라 인공 지능과 사이버 보안에 대한 인간의 개입 사이의 상호 보완적인 관계를 강조합니다. CISO는 GenAI와 LLM의 관련 위험을 파악하는 동시에 GenAI를 구현하고 조직을 강화하기 위한 인간 중심 접근 방식을 탐색해야 합니다.

인간은 AI가 남긴 것을 주워 온다

CISO는 GenAI의 복잡성을 해결하는 업무만 수행하는 것이 아닙니다. 그들은 조직을 위한 길을 닦아야 하며 GenAI가 지배하는 세계에서 조직이 어떻게 계속해서 성공할 수 있는지 리더십에게 보여주어야 합니다. 

최종 사용자는 많은 보안 취약성에 책임이 있는 경우가 많지만, 잘 훈련되고 보안에 관심이 있는 사람보다 사이버 범죄를 더 효과적으로 방어할 수 있는 방법은 없습니다. 조직이 어떤 위협 탐지 도구를 보유하고 있더라도 소프트웨어 테스트에 있어서 화면 뒤에 있는 사람을 대체할 수는 없습니다. 

조직은 다음과 같은 능력을 사용하여 사이버 범죄자를 능가할 수 있습니다. 윤리적 해킹. 일부 사람들은 오래된 오해 때문에 해커를 네트워크에 초대하는 것을 주저하지만, 법을 준수하는 이러한 사이버 보안 전문가는 AI와 달리 사이버 공격자의 머리 속으로 들어갈 수 있기 때문에 악의적인 행위자를 처리하는 데 가장 적합합니다.

실제로 해커는 이미 사이버 범죄자와의 싸움에서 자동화된 도구를 보완하고 있습니다. 의 92의 % 윤리적 인 해커 스캐너가 찾을 수 없는 취약점을 찾을 수 있다고 말합니다. 해킹에 대한 베일을 영원히 걷어냄으로써 비즈니스 리더는 윤리적 해킹과 인간 지원을 수용하여 현대 사이버 범죄에 맞서 싸우는 데 있어 AI와 인간 전문가 사이에 보다 효과적인 균형을 유지할 수 있습니다. 우리의 최근 해커 기반 보안 보고서 고객의 91%가 해커가 AI나 스캐닝 ​​솔루션보다 더 영향력 있고 가치 있는 취약성 보고서를 제공한다고 말하면서 이를 강조합니다. AI가 계속해서 우리의 미래를 형성함에 따라 윤리적인 해커 커뮤니티는 AI의 안전한 통합을 보장하기 위해 최선을 다할 것입니다.

고도로 숙련된 해커 네트워크와 자동화의 결합은 기업이 심각한 애플리케이션 결함이 악용되기 전에 이를 정확히 찾아낼 수 있음을 의미합니다. 조직이 자동화된 보안 도구와 윤리적 해킹을 효과적으로 결합하면 끊임없이 진화하는 디지털 공격 표면의 격차를 줄일 수 있습니다. 

이는 인간과 AI가 협력하여 보안 팀의 생산성을 향상할 수 있기 때문입니다. 

  1. 공격 표면 정찰: 현대 조직은 다양한 승인 및 비승인 하드웨어와 소프트웨어로 구성된 광범위하고 복잡한 IT 인프라를 확장할 수 있습니다. 소프트웨어 및 하드웨어와 같은 IT 자산의 포괄적인 인덱스를 개발하는 것은 취약성을 줄이고 패치 관리를 간소화하며 업계 요구 사항 준수를 지원하는 데 중요합니다. 또한 공격자가 조직을 표적으로 삼을 수 있는 지점을 식별하고 분석하는 데도 도움이 됩니다.
  2. 지속적인 평가: 특정 시점 보안을 넘어 조직은 인간 보안 전문가의 독창성과 실시간 공격 표면 통찰력을 결합하여 디지털 환경에 대한 지속적인 테스트를 달성할 수 있습니다. 지속적인 침투 테스트를 통해 IT 팀은 현재 환경에서 침해가 어떻게 나타나는지, 그리고 팀이 실시간으로 적응할 수 있는 잠재적인 약점을 보여주는 지속적인 시뮬레이션 결과를 볼 수 있습니다.
  3. 프로세스 개선: 신뢰할 수 있는 인간 해커는 보안 팀에 취약성 및 자산에 대한 귀중한 정보를 전달하여 프로세스 개선을 지원할 수 있습니다.

결론

생성 AI가 계속해서 빠른 속도로 발전함에 따라 CISO는 인간이 어떻게 협력하여 AI 보안을 강화하고 이사회와 리더십 팀의 지원을 얻을 수 있는지에 대한 이해를 활용해야 합니다. 결과적으로, 조직은 이러한 과제를 효과적으로 해결하기 위한 적절한 인력과 자원을 확보할 수 있습니다. 윤리적인 해커와의 협력을 통해 신속한 AI 구현과 포괄적인 보안 사이에서 적절한 균형을 맞추면 적절한 AI 기반 솔루션에 투자해야 한다는 주장이 강화됩니다.

spot_img

최신 인텔리전스

spot_img