사이버 보안 

거대 언어 모델이 물리적 보안에 미치는 영향

AI는 자동화 및 비용 절감을 위한 큰 잠재력을 제공합니다. 그런데 AI가 안전할까요? 인공 지능이 어떻게 오늘날의 산업을 발전시켰는지 살펴보세요.

 

최근 거대 언어 모델(LLM)이 돌풍을 일으켰습니다. OpenAI가 인공 지능(AI) 챗봇인 ChatGPT를 출시한 지 한 달 만에 1억 명의 사용자를 모은 것입니다. 이로 인해 ChatGPT는 역사상 가장 빨리 성장한 소비자 애플리케이션이 되었습니다.

여기서 궁금증이 생깁니다. LLM은 질문에 대한 답변, 복잡한 주제에 관한 설명부터 장편 영화 각본의 초고, 코드 작성까지 모든 작업을 할 수 있습니다. 이 때문에 AI 기술의 능력에 대해 전 세계 사람들이 흥미로워하는 동시에 우려를 나타냅니다.

LLM은 최근 관심의 초점이 되었지만 사실 오래 전부터 존재해오던 기술이라는 점을 주목해야 합니다. 아직 발전 중이지만 LLM 및 기타 AI 도구는 다양한 작업에 걸쳐 더 큰 자동화를 추진할 수 있는 새로운 기회를 만들고 있습니다. AI의 한계와 잠재적 위험에 대해 충분한 근거를 가지고 이해해 나가는 것이 필수적입니다.

Genetec의 기술 비전 알아보기
 

용어 설명

인공 지능, 머신 러닝, 딥 러닝은 무엇이 다른 걸까요? 그리고 어떻게 거대 언어 모델에 적용될까요?

인공 지능(AI)

인공 지능

기계를 사용하여 인간 지능 프로세스를 모방하는 개념.  한 마디로, 머신 러닝 및 딥 러닝 모두 인공 지능 카테고리에 해당합니다.

머신 러닝

인간의 간섭을 거의 받지 않고 자동으로 적응하는 인공 지능.

자연 언어 처리

인공 지능 및 머신 러닝을 사용하여 인간의 언어를 이해하고 맞춤법 검사, 번역 및 요약 등 반복적인 작업을 자동으로 수행하는 프로세스.

딥 러닝

인간 뇌의 학습 과정을 모방한 인공 신경망을 사용하는 기계 학습의 한 종류.

거대 언어 모델

딥 러닝 기술을 사용하며 인터넷에서 방대한 양의 정보를 공급받는 인공 지능 알고리즘.

거대 언어 모델에 따르는 위험

올해 초, OpenAI의 CEO, Sam Altman은 ChatGPT 보안에 의문을 제기하는 편견을 둘러싼 취약점을 인정했습니다. 최근 연구원들은 '나쁜 사람'이나 특정한 역사적 인물 등을 포함한 거대 언어 모델을 프롬프팅하는 것이 머신 러닝 모델에서 6배 더 많은 비매너 및 유해 반응을 유발하는 것을 발견했습니다.

거대 언어 모델은 안전할까요? LLM의 위험성을 평가할 때는 거대 언어 모델이 사용자 만족을 최우선으로 훈련되었는지 고려하는 것이 중요합니다. 또한 LLM은 감독되지 않은 AI 훈련 방법을 사용하여 인터넷에서 대량의 무작위 데이터 풀을 공급합니다. 즉, LLM이 제공하는 답변이 항상 정확하거나, 진실하거나, 편견이 없는 것은 아닙니다. 이 모든 것은 보안 맥락에서는 굉장히 위험한 것입니다. 

사실, 감독되지 않은 AI 방식은 '진실의 환각'을 만들어 냈습니다. 이 현상은 AI 모델이 그럴듯해 보이지만 사실적이지 않거나 실제 데이터에 기반하지 않은 답변을 생성할 때 발생합니다.

LLM을 사용하면 심각한 프라이버시 및 기밀 위험을 초래할 수도 있습니다. 이 모델은 많은 사람 및 기업에 대한 기밀 정보가 포함된 데이터를 학습할 수 있습니다. 그리고 모든 텍스트 프롬프트가 다음 버전을 훈련하는 데 사용되기 때문에 유사한 콘텐츠에 대해 LLM에 프롬프트를 입력한 사람이 AI 챗봇 응답을 통해 민감한 정보를 알게 될 수 있습니다.

그러면 이 AI 기술을 악의적으로 남용하는 경우가 더 많아집니다. 프로그래밍 지식이 거의 또는 전혀 없는 악의적인 사람이 AI 챗봇에 알려진 취약성을 이용하는 스크립트를 작성하도록 요청하거나 특정 응용 프로그램이나 프로토콜을 해킹하는 방법 목록을 요청한다고 생각해 봅시다. 물론 이런 것들은 가설에 지나지 않지만 이러한 기술이 우리가 아직 예상할 수 없는 방식으로 어떻게 이용될 수 있을지 궁금해하지 않을 수 없습니다.

물리적 보안 공간에서 거대 언어 모델이 진화하는 방법

이제 거대 언어 모델(LLM)은 수많은 과대 광고를 만들고 있습니다. AI가 마법처럼 모든 것을 가능하게 할 수 있다는 의식이 존재합니다. 하지만 모든 AI 모델이 동일하거나 같은 속도로 발전하는 것은 아닙니다.

 

거대 언어, 딥 러닝 및 머신 러닝 모델은 확률에 기반한 결과를 제공하고 있습니다. 거대 언어 모델을 구체적으로 자세히 살펴보면, 주요 목표는 방대하고 무분별한 양의 데이터에서 가장 그럴듯한 답을 제공하는 것입니다.  앞서 언급했듯이, 이는 잘못된 정보나 AI 환각으로 이어질 수 있습니다.

물리적 보안 공간에서, 정보를 만들어낼 수 있는 머신 러닝 및 딥 러닝 알고리즘은 생성형 AI에 의존하지 않습니다. 대신, AI 모델은 패턴을 감지하고 데이터를 분류하도록 구축되었습니다. 이러한 결과는 여전히 확률에 기반하기 때문에 사람이 계속 개입하여 무엇이 맞고 틀린지를 최종 결정해야 합니다.

하지만 LLM의 모든 유익한 결과에 대해서도 마찬가지입니다. 보안 애플리케이션의 경우, 운영자가 보안 플랫폼 내에서 AI 언어 모델을 사용하여 '지금 3층에 몇 명 있습니까?' 또는 '지난 달에 방문자 배지를 몇 개 발급했습니까?'와 같은 질문에 빠른 답변을 얻게 될 수도 있습니다. 또한 조직이 보안 정책을 수립하거나 응답 프로토콜의 세부 사항을 개선하는 데 사용될 수 있습니다.

AI 언어 모델이 어떻게 사용되든 한 가지는 확실합니다. 보안 사용 사례에는 모델이 더 제한된 환경에서 실행되도록 하는 접근 방식이 필요합니다. 따라서 현재 LLM에 대한 관심은 많지만, 물리적 보안 애플리케이션에 안전하게 사용할 수 있도록 위해서는 여전히 많은 작업이 수행되어야 합니다. 

AI는 물리적 보안 공간에서 어떻게 구현되고 있나요? 

지금 LLM이 가장 화제가 되고 있지만 물리적 보안에 AI를 사용하는 것은 새로운 것이 아닙니다. AI를 사용하여 다양한 애플리케이션을 지원하는 흥미로운 방법이 많이 있습니다.

오늘날 물리적 보안에 AI가 어떻게 사용되고 있는지 몇 가지 예시를 살펴봅시다.

조사 속도 향상

특정 기간의 비디오를 샅샅이 살펴서 빨간색 차량의 영상을 모두 찾습니다.

인원 집계 자동화

건물의 최대 점유율 임계값을 알리거나 서비스 개선을 위해 고객 줄이 너무 길어진 경우를 파악합니다.

차량 번호판 감지

수배 차량 추적, 직원들의 사무실 주차 간소화 또는 도시 전체의 교통 흐름 모니터링합니다.

사이버 보안 향상

머신 러닝을 사용하여 엔드포인트에서 실행되는 알려진/알려지지 않은 악성코드를 식별하고 차단하여 어플라이언스에 백신 보호 기능을 강화합니다.

대부분의 비즈니스에서 AI를 구현하는 것은 대규모 데이터 분석과 더 높은 수준의 자동화를 달성하는 등 몇 가지 중요한 요소로 귀결됩니다. 모두가 디지털 혁신을 논하는 시대에 조직은 물리적 보안 투자 및 데이터를 활용하여 생산성을 높이고 운영을 개선하며 비용을 절감하고자 합니다.

또한 자동화는 조직이 규정 준수 비용을 절감하면서 다양한 업계 표준 및 규정을 준수할 수 있도록 해줍니다. 딥 러닝 및 머신 러닝이 많은 양의 데이터 프로세싱 및 워크플로를 자동화하는 잠재력을 제공하는 동시에 운영자에게 통찰력을 제공하기 때문입니다. 이를 통해 업무 중단에 신속하게 대응하고 더 나은 의사 결정을 내릴 수 있습니다.

다양한 비디오 분석 솔루션을 통해 AI가 점점 더 보편화되고 있지만 아직 AI가 할 수 있는 것과 할 수 없는 것에 대한 신화가 많이 있습니다. 따라서 전문가들이 물리적 보안을 위한 대부분의 AI 솔루션이 만병통치약 같은 것이 아니라는 것을 이해하는 것이 중요합니다.

작업을 자동화하거나 원하는 결과에 도달하는 것은 기술 실현 가능성을 결정하는 과정입니다. 여기에는 사용 중인 기존 솔루션, 필요할 수 있는 다른 기술, 해결해야 할 호환성 문제나 고려해야 할 기타 환경적인 요소가 있는지 식별하는 일이 포함됩니다.

실행 가능성 평가 때도 일부 조직에서는 투자가 합당한 결과를 가져올지 의문을 가질 수 있습니다. 따라서, AI는 물리적 보안 산업에서 더 높은 수준의 자동화에 도달하기 위한 핵심 구성 요소이지만 정확한 결과를 달성하기 위해서는 고려, 사전 숙고 및 계획이 여전히 많이 필요한 부분입니다.

즉, 새로운 AI 솔루션을 탐색할 때 주의를 기울이는 것이 중요하며, 약속된 결과는 비판적 사고와 실사를 통해 평가되어야 합니다.

오늘날 물리적 보안에 AI를 활용하는 가장 좋은 방법

AI 지원 애플리케이션은 새롭고 흥미로운 방식으로 발전하고 있습니다. 기업이 조직 전반에 생산성, 보안 및 안전성을 높이는 특정 성과를 달성하도록 지원하는 데 큰 가능성을 보입니다.

물리적 보안을 위한 새로운 AI 발전을 활용하는 가장 좋은 방법 중 하나는 개방형 보안 플랫폼을 구현하는 것입니다. 오픈 아키텍처는 보안 전문가가 운영 전반에 더 큰 가치를 창출하는 인공 지능 애플리케이션을 자유롭게 탐색하도록 해줍니다. AI 솔루션이 시장에 출시됨에 따라 리더들은 종종 무료로 이러한 애플리케이션을 사용해보고 목표와 환경에 가장 적합한 애플리케이션을 선택할 수 있습니다.

새로운 기회가 등장하면서 새로운 위험도 등장했습니다. 그렇기 때문에 데이터 보호, 프라이버시 및 책임감 있는 AI 사용을 우선시 하는 조직과 협력하는 것도 똑같이 중요합니다. 이는 사이버 탄력성을 강화하고 기업에 대한 신뢰를 높이는 데 도움이 될 뿐만 아니라 사회적 책임의 일부이기도 합니다.

'AI 윤리'라는 제목의 IBM 보고서에서는 소비자의 85%가 사회의 문제를 해결하기 위해 AI를 사용하기 때문에 윤리를 고려하는 것이 중요하다고 답했습니다. 경영진의 75%는 AI 윤리를 올바르게 이해하는 것이 기업을 경쟁사와 차별화할 수 있는 방법이라고 생각합니다. 그리고 60% 이상의 경영진은 AI 윤리가 다양성, 포용성, 사회적 책임 및 지속 가능성 문제에서 조직이 더 나은 성과를 내도록 돕는다고 답했습니다.

Genetec이 책임감 있는 AI를 사용하여 프라이버시 및 데이터 거버넌스를 고려하는 방법

인공 지능(AI) 알고리즘은 대량의 데이터를 빠르고 정확하게 처리할 수 있기 때문에 AI는 점점 더 물리적 보안 솔루션의 중요한 도구가 되고 있습니다. 하지만 AI가 진화하면서 프라이버시를 침해하는 방식으로 개인 정보를 사용할 수 있는 능력이 확대되었습니다. 

또한 AI 모델은 여러 편견에 기반하여 의도치 않게 왜곡된 결정이나 결과를 생성할 수 있습니다. 이는 결정에 영향을 미칠 수 있고 궁극적으로는 차별로 이어질 수 있습니다. AI는 업무 수행 방식과 의사 결정 방식을 혁신할 수 있는 힘을 가지고 있지만 책임감 있게 배치해야 합니다.

이것이 Genetec™의 팀이 책임감 있는 AI를 진지하게 여기는 이유입니다. 사실, 당사는 우리의 AI 모델을 만들고, 개선하고, 유지하기 위한 일련의 가이드 원칙을 고안했습니다. 여기에는 다음과 같은 세 가지 핵심 요소가 포함됩니다.

  프라이버시 및 데이터 거버넌스

기술 공급 업체로서 솔루션 개발에 AI를 사용하는 방식에 책임을 집니다. 즉, 관련 데이터 보호 규정을 준수한 데이터셋을 사용합니다. 그리고 가능한 한 데이터 셋을 익명화하고 합성 데이터를 사용합니다. 또한 데이터 셋을 최대한 신중하게 취급하고 데이터 보호 및 프라이버시를 최우선으로 합니다. 여기에는 AI 기반 애플리케이션에서 허가받지 않은 사람들이 민감한 데이터 및 정보에 액세스하지 못하도록 엄격한 인증 및 인증 방법을 고수하는 것을 포함합니다. 당사는 진화하는 AI 규정을 준수하는 데 도움이 되는 내장 도구를 제공하기 위해 최선을 다하고 있습니다.

  투명성 및 공정성

AI 모델을 개발하고 사용하면서 항상 편견을 최소화할 수 있는 방법에 대해 생각하고 있습니다. 당사의 목표는 솔루션이 항상 균형 있고 공평한 결과를 제공하도록 하는 것입니다. 이를 보장하기 위해 AI 모델을 엄격하게 테스트한 후 고객과 공유합니다. 또한 모델의 정확성과 신뢰성을 지속적으로 향상시키기 위해 노력하고 있습니다. 최종적으로, AI 모델을 설명할 수 있도록 노력합니다. 이는 AI 알고리즘이 결과를 결정하거나 전달할 때 고객에게 어떻게 그 결과에 도달하게 되었는지 정확하게 말할 수 있다는 의미입니다.

  인간 주도 결정

Genetec에서는 AI 모델이 스스로 중요한 결정을 내릴 수 없도록 합니다. 인간이 항상 핵심 중추가 되어 최종 결정권을 가져야 한다고 믿습니다. 물리적 보안 맥락에서 인간 중심 의사 결정을 우선시 하는 것이 중요하기 때문입니다. 인간이 위험을 선천적으로 이해하고 생명을 구하기 위해 필요한 행동을 취하는 삶과 죽음의 상황을 생각해 보십시오. 기계는 보안 운영자처럼 실제 사건의 복잡성을 바로 파악할 수 없기 때문에 통계적 모델에만 의존하는 것은 해답이 될 수 없습니다. AI는 통찰력을 이끌어낼 수 있지만 항상 인간이 의사 결정자가 되어야 합니다.
 

공유

관련 콘텐츠

Putting AI to work for the security industry

Artificial Intelligence, machine learning, deep learning—what does it all mean for the security industry?

Deploy video analytics such as ALPR, people counting, crowd estimation, and others to enhance business operations.
How video analytics can improve your business operations

Video analytics isn’t just for security anymore. See how organizations across different industries use analytics to streamline their operations.

ALPR technology
Top ALPR features and technology for your organization

Organizations worldwide are leveraging ALPR technology to improve efficiency, enhance safety, and save costs—learn how you can too.