본문 바로가기

해외 IT 미디어 번역

해커에게 비밀을 도둑맞은 OpenAI

 

안녕하세요, 에디터 푸린입니다!

AI관련된 해외 미디어 글을 원래 번역해서 올리려고 했는데 다른 번역 버전이 있기에 본 아티클은 AI의 빛과 그림자에 대해서 다루는 아티클에 참고용으로 업로드합니다. 번역에 문제가 있는 부분은 언제든지 알려주시기 바랍니다~

 

 

기사 원문: https://www.securityweek.com/hackers-stole-secrets-from-openai/

2024년 7월 5일

 

 

ChatGPT 제작자인 OpenAI가 2023년 유출사고를 겪었지만 소스코드와 고객 데이터에는 공격자의 접근이 없었다고 한다

 

뉴욕타임스가 현지시간 2024년 7월 4일 OpenAI가 공개되지 않은 유출사고를 2023년도 초반에 겪었었다고 보도했다.

뉴욕타임즈는 공격자가 AI를 만들고 보관하기 위한 시스템에 공격자가 접근하지는 않았다고 남겼으나, 임직원 포럼에서의 논의사항들에 대해서는 탈취를 했다고 밝혔다.

OpenAI가 공개적으로 사고에 대해서 밝히거나 FBI에 알리지는 않았는데, 주장하기로는 고객 데이터나 파트너 데이터가 전혀 탈취되지 않았고 유출 사고가 국가 보안/안보에 위협이 요소라고 고려되는 사항이 아니었기 때문이라고 했다. OpenA사는 해당 공격이 한 사람에 의해서 일어난 것이며 다른 외국 정부와의 관계성은 알려져 있지 않다 고 결론지었다.

그럼에도 불구하고, 해당 사고는 내부 스태프들이 OpenA가 보안 우려사항에 대해 공개하는 것에 얼마나 심각성을 갖고 있는지에 대해서 논의의 장을 이끌었다.

"유출 사고 이후, OpenAl의 기술적 프로그램 매니저인 레오폴드 아스첸브레너 (Leopold Aschenbrenner)는 미래 AI 기술이 심각한 해를 입히지 않는다는 것에 대한 확신을 심어주는 것에 집중을 했고, OpenAI의 이사회에 회사가 중국 정부 및 다른 외 국 적들이 그들의 비밀을 훔쳐가는 것에 대한 충분한 대응을 하고 있지 않다고 메모를 남겼다" 라고 NYT는 서술했다.

올해 초, 그는 해고되었는데, 표면적으로는 내부정보 유출로 해고가 되었다 (하지만 '그 메모'때문이었으리라) Aschenbrenner는 공식 사고 이야기와는 약간 다른 버전을 알렸다. Dwarkest Patel과의 팟캐스트에서 (2024년 6월 4일 진행) 그는 다음과 같이 말했다:

"OpenAI는 임직원들에게 내가 내부 유출로 인해 해고되었다고 주장했다. 나와 다른 사람들은 회사에게 무슨 유출이었는지 설명을 해달라고 압박을 가했다. 다음이 그 대답 의 전문이다: 작년 어느때, 내가 AGI의 미래 계획에 필요한 준비 내용 및 안전, 그리고 보안 장치들에 대한 브레인스토밍 문서를 작성했다. 나는 그것을 3명의 외부 리서치 인력에게 피드백을 요청하기 위해 공유했다. 그게 바로 유출이라는 것이다. 내가 그 문서를 공유하기 전, 나는 그 중에 민감한 데이터가 어떤 것이라도 있는지 검토를 하였다. 내부 버전에는 미래 클러스터 부분에 대한 레퍼런스 버전이 있었다, 내가 외부에 공유 한 버전에서는 해당 버전을 삭제했지만 말이다."

명백하게도, OpenAI는 대동단결된 곳이 아니며, 현재의 운영방식, 앞으로 어떻게 운영해야 할지, 그리고 어떤 방향을 지향해야 할지 등 서로 다른 의견이 존재하는 곳이다.

우려사항은 (생성형 AI인)OpenGPT에 대해서가 아니라 AGI(artificial general intelligence; 인공 일반 지능)에 대한 미래 부분이다.

전자는 궁극적으로 그것이 얻는 (보통은 인터넷에서 긁어오는)지식을 변화한다. 후자의 경우 독창적인 추리가 가능하다. 생성형 AI는 비록 그것이 현재의 사이버 공격의 스케일이나 정교화를 향상시킬지라도 국가 보안에 위협으로 고려되지는 않는다.

AGI는 다른 문제다. 그것은 사이버, 역학적 전쟁터, 그리고 인텔리 측면에서의 새로운 위협을 개발할 수 있는 능력이 된다 - 그리고 OpenAl, DeepMind, Anthropic이나 다른 AI 리더 회사들과 기술자들은 시장에서 첫번째 자리를 차지하기 위해 모두를 돌진하고 있다. OpenAI의 2023년 유출 사고에 대한 우려사항은 그것이 미래에 국가적 보안 문제가 실제로도 될 수도 있다는 점에 대한 보안 준비도가 부족한 것을 보여준다는 것이다.

"OpenAl의 많은 드라마(환상)가 그들이 AGI를 만들고 있다는 것을 진짜로 믿고 있다는 것에 있습니다. 이건 그냥 마케팅적인 주장이 아니예요." Aschenbrenner가 말했다. 그리고 덧붙였다. "사람들에게 문제인 것은 AGI에 대해서 믿는 것과 다른 지표들을 심각하게 받아들이지 않는 것 사이의 인지적 충돌입니다. 이 기술은 어마무시하게 강력합니다. 당신은 CCP로부터 비밀을 보호하고 있나요? 미국이 코어 AGI 인프라를 통제하고 있나요 아니면 중동의 독재자가 그것을 통제하고 있나요?“

 

우리가 AGI 개발에 가까워질수록, 사이버 위협은 일반 범죄자로부터 엘리트로 구성된 국가 주도이 공격자들로 주체가 바뀔 것이다 - 그리고 우리는 시간과, 다시 한번 강조하지만 우리의 보안이 그들에 대비하기에는 부족하다는 것을 보고 있다(=느끼고 있다). OpenAI사의 상대적으로 덜 중요했던 유출사고의 이면에서 (그리고 우리는 그것이 회사가 임직원들에게 말한 것보다 더 심한 사고가 아니었을 것이라고 생각해야만 한다), Aschenbrenner는 보안에 대한 일반적이고 진지한 문제들을 제기했다 - 그리고 그로 인해, 그는 해고된 것으로 보인다.

반응형