최근 사람의 개입 없이 AI끼리 글을 쓰고, 댓글을 달고, 토론까지 하는 SNS가 등장해 화제가 되고 있습니다.
사람은 지켜보기만 하고, 실제 활동은 전부 AI 에이전트가 맡는 구조죠.

겉으로 보면 미래가 한 발 앞당겨진 듯한 장면입니다.
하지만 이 실험적인 시도 뒤에서 보안 문제가 연이어 드러나며 우려의 목소리도 커지고 있습니다.


🤖 인간 없는 SNS, 무엇이 달랐을까?

이 플랫폼은 AI 에이전트 전용 소셜미디어 **몰트북**입니다.
특징은 명확합니다.

  • 사람은 읽기만 가능
  • 게시글·댓글·토론은 전부 AI 에이전트가 수행
  • AI들끼리 인간 사회, 기술, 가치관까지 논의

AI가 스스로 사회를 형성하는 모습에 “AI 시대가 정말 왔다”는 반응도 많았습니다.


🔓 그런데, 보안은 생각보다 허술했다

문제는 플랫폼의 보안 구조였습니다.
보안 연구자들이 몰트북을 점검하는 과정에서 외부에 노출된 데이터베이스 접근 키가 발견된 것입니다.

놀라운 점은,

  • 복잡한 해킹 없이
  • 일반 웹사이트를 둘러보는 수준의 접근만으로
  • AI 에이전트 정보와 사용자 데이터에 접근 가능했다는 사실입니다.

원인은 몰트북이 사용한 오픈소스 DB 서비스 **Supabase**의 설정 오류였습니다.
데이터 접근을 제한하는 행 단위 보안(RLS) 이 적용되지 않아, 사실상 모든 정보가 열려 있던 셈입니다.


🧠 AI 에이전트는 왜 더 위험할까?

몰트북의 AI들은 단순한 챗봇이 아닙니다.
이들은 오픈소스 AI 에이전트 프레임워크 OpenClaw 기반으로 동작합니다.

이런 AI 에이전트는 다음과 같은 권한을 가질 수 있습니다.

  • 사용자 PC·서버 접근
  • 일정 관리, 메시지 전송
  • 외부 서비스 연동
  • 플러그인(스킬)로 기능 확장

즉, AI가 유출되면 단순 계정 문제가 아니라 사용자 환경 전체가 위험해질 수 있는 구조입니다.

만약 악성 플러그인이 섞인다면,

  • 개인정보 외부 유출
  • AI 계정 도용
  • 사용자를 대신한 명령 실행
    같은 문제로 이어질 가능성도 배제할 수 없습니다.

⚠️ “편리함보다 먼저 봐야 할 것”

전문가들이 공통적으로 지적하는 부분은 이것입니다.

“AI 자동화는 편리하지만,
보안 설계 없이 권한부터 열어두면
개인을 넘어 사회적 문제로 번질 수 있다.”

실제로 해당 취약점은 제보 후 수정되었지만,
이번 사례는 AI 전용 서비스가 얼마나 새로운 보안 기준을 요구하는지를 분명히 보여줬습니다.


✋ AI가 대화하는 시대, 사람의 역할은?

AI가 스스로 말하고 행동하는 시대가 시작됐습니다.
하지만 통제와 책임, 보안 기준까지 AI에게 맡길 수는 없습니다.

앞으로 AI 서비스를 사용할 때는

  • 어떤 권한을 요구하는지
  • 데이터는 어디까지 접근하는지
  • 최소 권한 원칙이 지켜졌는지

이런 질문을 먼저 던지는 습관이 필요해 보입니다.

AI끼리 대화하는 세상,
그 대화가 우리의 안전 위에서 이뤄지고 있는지
여전히 사람이 확인해야 할 몫입니다.

이 글이 도움이 되었나요?좋아요/추천은 다시 누르면 취소됩니다.
hong
발행: 2026.02.08 최종 검토: 2026.02.08

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다