일리노이주 AI 책임 제한 법안에 대한 OpenAI의 지지
(wired.com)-
OpenAI가 일리노이주 상원 법안 SB 3444를 지지하며, AI 모델이 대규모 인명 피해나 막대한 재산 피해를 일으킨 경우에도 일정 조건하에 AI 연구소의 법적 책임을 제한하는 내용임
- 법안은 AI 모델이 100명 이상 사망 또는 중상, 혹은 10억 달러 이상의 재산 피해를 초래한 경우를 ‘중대한 피해(critical harm)’로 정의
- AI 연구소가 이러한 피해를 의도적 또는 중대한 과실 없이 발생시켰고, 안전·보안·투명성 보고서를 웹사이트에 공개했다면 책임을 면제받을 수 있음
- 법안은 ‘프런티어 모델(frontier model)’ 을 훈련 비용이 1억 달러 이상인 AI로 정의하며, OpenAI, Google, xAI, Anthropic, Meta 등 대형 AI 연구소가 해당될 가능성 있음
- 이 정의는 고성능 AI 시스템을 중심으로 한 규제 체계를 마련하려는 시도로 해석됨
- OpenAI 대변인 Jamie Radice는 이메일 성명에서 “이 접근은 첨단 AI 시스템의 심각한 피해 위험을 줄이면서도 기술이 기업과 개인에게 도달하도록 돕는다”고 밝힘
- 또한 주별로 상이한 규제 대신 명확하고 일관된 국가 단위의 기준을 마련하는 데 도움이 된다고 언급
- 법안이 정의하는 ‘중대한 피해’에는 AI가 화학·생물학·방사능·핵무기를 생성하거나, 인간이 저질렀다면 범죄로 간주될 행위를 스스로 수행하는 경우 등이 포함됨
- 이러한 행위로 대규모 피해가 발생하더라도, AI 연구소가 고의적이지 않고 보고서를 제출했다면 법적 책임을 면제받을 수 있음
-
연방 규제와 주별 법안의 충돌
- OpenAI 글로벌 어페어즈 팀의 Caitlin Niedermeyer는 SB 3444 지지 증언에서 연방 차원의 AI 규제 체계 필요성을 강조
- 주별로 상이한 규제가 비효율적 마찰을 초래할 수 있다며, 연방 시스템과의 조화를 강화해야 한다고 주장
- 이는 실리콘밸리 전반의 입장과 유사하며, 미국의 AI 경쟁력 유지를 중시하는 논리와 일치
- Niedermeyer는 “프런티어 모델의 안전한 배포와 미국의 혁신 리더십 유지가 규제의 북극성(North Star)이 되어야 한다”고 발언
- OpenAI 글로벌 어페어즈 팀의 Caitlin Niedermeyer는 SB 3444 지지 증언에서 연방 차원의 AI 규제 체계 필요성을 강조
-
법안 통과 가능성과 비판
-
Secure AI Project의 정책 디렉터 Scott Wisor는 일리노이주의 기술 규제 성향을 고려할 때 법안 통과 가능성이 낮다고 평가
- 일리노이 주민 대상 여론조사에서 90%가 AI 기업의 책임 면제에 반대
- 주 의원들은 오히려 AI 개발자에 대한 책임 강화 법안을 제출 중임
- 일리노이주는 이미 정신건강 서비스에서의 AI 사용 제한법을 제정한 첫 주이며, 2008년에는 생체정보보호법(BIPA) 을 통과시킨 전례가 있음
-
Secure AI Project의 정책 디렉터 Scott Wisor는 일리노이주의 기술 규제 성향을 고려할 때 법안 통과 가능성이 낮다고 평가
-
AI 피해 책임의 미해결 문제
- SB 3444가 대규모 피해에 초점을 맞추고 있지만, 개인 단위 피해에 대한 논의도 지속 중
- 일부 가족은 자녀가 ChatGPT와의 비정상적 상호작용 후 자살했다며 OpenAI를 상대로 소송 제기
- 연방 차원의 AI 입법은 여전히 의회에서 진전이 없는 상태
- 트럼프 행정부는 행정명령과 프레임워크를 발표했으나, 실질적 입법 논의는 교착 상태
- 연방 지침 부재 속에서 캘리포니아·뉴욕 등 주정부가 자체적으로 안전·투명성 보고 의무화 법안을 통과시킴
- AI 붐이 수년째 이어지는 가운데, AI 모델이 재앙적 사건을 일으킬 경우의 법적 책임은 여전히 미해결 상태로 남아 있음
- SB 3444가 대규모 피해에 초점을 맞추고 있지만, 개인 단위 피해에 대한 논의도 지속 중
Hacker News 의견들
-
나는 GPT 5.4와 Opus 4.6을 이용해 일상용품으로 신경독성 물질을 만드는 법을 생성하도록 시도했음
모델은 처음엔 인(P) 확보 방법에서 막혔지만, 결국 eBay의 ‘장식용 인’ 판매 목록과 실제 암시장에서 쓰이는 코드워드까지 안내했음
안전 수칙, 재료 목록, 은폐 방법, 그리고 학술 검색을 통한 화학 과정까지 코칭받았음
물론 이는 맥락 소진 공격(context exhaustion attack) 을 통해 가능했던 비정상적 결과였고, 이후 OpenAI와 Anthropic에 보고했으나 무응답이었음
최근 다시 시도했을 때는 세션이 종료되어 수정된 듯 보임
이런 일이 대테러 부서 사람들을 잠 못 들게 할 수준이라 확신함- 이런 정보는 이미 20~30년 전부터 인터넷에서 쉽게 구할 수 있었음
예전엔 “정부가 숨기려는 정보”를 다루는 포럼도 많았음
다만 지금은 실행의 마찰이 줄어드는 게 더 무서운 부분임 - “대테러 요원들이 잠 못 잔다”는 표현은 너무 과장된 듯하지만, 오늘은 그 긍정적인 에너지 그냥 받아들이겠음
- 혹시 생화학 전공이 있는지 궁금함
나는 전문 분야에서 ChatGPT와 Claude를 써봤는데, 비전문가가 보면 그럴듯하지만 완전히 틀린 내용을 자주 만들어냄
실제로 LLM의 화학 지시를 따라 실험해본 사람이 있는지도 궁금함 - 이런 정보는 AI 이전에도 Google 검색만으로 충분히 접근 가능했음
- “이건 모델이 그렇게 작동하면 안 된다”는 말에 동의하지 않음
사실 시스템 프롬프트를 덮어쓰지 않으면 원래 그렇게 작동해야 하는 것임
- 이런 정보는 이미 20~30년 전부터 인터넷에서 쉽게 구할 수 있었음
-
일리노이 상원 법안 3444의 원문을 인용함
‘중대한 피해(critical harm)’는 AI 모델이 100명 이상 사망 또는 10억 달러 이상의 재산 피해를 초래한 경우를 뜻함
개발자는 사전에 안전 프로토콜과 투명성 보고서를 공개했다면 의도적 과실이 없는 한 면책됨
하지만 단순히 PDF를 올리는 수준으로는 부족하다고 생각함- 흥미로운 점은 이 법이 ‘프런티어 모델’ 에만 적용된다는 것임
즉, 작은 모델이 사고를 내면 보호받지 못함
99명만 죽이면 괜찮다는 건가? “크게 가거나 집에 가라”는 식의 이상한 논리임 - 핵심은 15조에 있음
단순히 문서만 공개하는 게 아니라 실제로 그 프로토콜을 준수해야 보호받음
규제기관이 ‘합리적 기준’을 정하고, 기업이 그 기준을 충족했을 때만 면책되어야 함
무조건적 면책도, 무조건적 책임도 모두 과함
결국 법의 문제는 기준이 너무 낮게 설정된 데 있음 - 기업이 책임을 공공으로 전가하는 건 흔한 일임
1957년 제정된 Price–Anderson Act가 대표적 사례로, 원자력 산업의 책임을 제한함
후쿠시마 사고처럼 1조 달러 이상 피해가 나도 정부가 대부분 부담함
AI 산업의 면책 논의도 이와 같은 맥락임
덧붙여, Gemini가 이 법의 만료 연도를 틀리게 답한 걸 보고 AI의 사실 검증 필요성을 다시 느꼈음 - 이건 AI 버전의 “총이 사람을 죽이는 게 아니다” 논리임
물론 단순화된 비유지만, 결국 책임 회피용 법안이라는 점은 분명함 - 이 법은 자율무기 개발과 관련된 논란과도 닿아 있음
잘못된 목표를 공격했을 때 책임을 피하려는 시도로 보임
“Skynet”이 언급되지 않은 게 오히려 이상할 정도임
면책이 필요하다는 건 이미 위험하다는 걸 안다는 뜻임
- 흥미로운 점은 이 법이 ‘프런티어 모델’ 에만 적용된다는 것임
-
아이오와 주의 사례가 떠오름
주 상원은 농약·제초제 회사가 EPA 라벨 기준만 따르면 소송을 막는 법안을 두 번 통과시켰음
아이오와는 미국에서 암 발병률이 가장 빠르게 증가하는 주이기도 함- 정부가 승인한 제품이라면 나중에 해로움이 밝혀져도 기업이 책임져야 하나?
PFAS 관련 소송(기사 링크)처럼 앞으로 큰 논쟁이 될 듯함 - 결국 이건 지역 산업 이익과 공중보건의 충돌 문제로 보임
- 정부가 승인한 제품이라면 나중에 해로움이 밝혀져도 기업이 책임져야 하나?
-
우리는 이해하지 못하는 시스템을 만들었고, 그다음 단계가 면책이라니 아이러니함
- 맞음, 책임 회피가 목적임
하지만 진짜 두려운 건 이런 반응이 너무 좁은 사고방식에서 비롯된다는 점임
- 맞음, 책임 회피가 목적임
-
책임 문제는 단순하다고 생각함
결정한 인간이 항상 책임을 져야 함
“AI가 시켜서 했다”는 변명은 통하지 않음
다만 권한 없는 사람이 실행했다면 그건 또 다른 형태의 책임임
결국 AI는 새로운 희생양이 될 뿐임- 하지만 “누가 책임자냐”는 게 항상 명확하지 않음
-
결국 정부 로비가 제품 안전 개선보다 싸고 빠르다는 계산을 한 셈임
이런 기업에 세상의 열쇠를 맡기려는 개발자들이 많다는 게 더 놀라움- 사실 이런 방식은 20세기 중반 이후 기업의 표준 전략이었고, 잘 먹혀왔음
- 하지만 비결정적(nondeterministic) 제품을 어떻게 ‘안전하게’ 만든단 말인가?
-
일리노이에는 또 다른 운영체제 수준의 연령 인증 의무화 법안(HB 5511) 도 있음
이런 나쁜 법안이 통과되는 이유는 우리가 목소리를 내지 않기 때문임
주민이라면 지금 바로 의원에게 이메일을 보내야 함 -
“이 글이 언제 프론트페이지에서 내려갈까?” 내기함
- 제목이 “OpenAI backs Illinois bill that would limit when AI labs can be held liable”로 바뀌었음
실제 법안(링크)에는 ‘100명 이상 사망 또는 10억 달러 피해’ 라는 문구가 명시되어 있음
원래 제목이 오히려 더 정확했다고 생각함 - 업데이트: 약 1~4시간 사이에 프론트페이지에서 내려감
- 하지만 이건 마케팅 효과라서 삭제되지 않을 것 같음
우리는 그걸 소비 중임 - 내기하자면 3개월은 걸릴 듯함 — 안 내려가면 평생 베팅 성공임
- 제목이 “OpenAI backs Illinois bill that would limit when AI labs can be held liable”로 바뀌었음
-
OpenAI는 원래 LLM의 위험을 줄이기 위한 비영리 조직으로 시작했는데, 지금은 정반대의 길을 걷고 있음
- 그건 돈의 가능성을 발견하기 전 이야기였음
- “Open”이라는 이름을 가진 회사는 대체로 닫혀 있음
- 결국 모두에게는 가격이 있음
- 그들도 이제 처음의 이상을 잊었음
- 어쩌면 애초부터 거짓말이었을지도 모름
-
이런 행보는 OpenAI와 Sam Altman에게 놀랍지 않음
기업이 비용을 외부로 전가하는 건 흔한 일임
하지만 우리는 어떻게 이런 행태를 막을 수 있을까?
단순히 탐욕이 도덕을 이긴 결과인가?- 사회 전체적으로는 막기 어려움
SOPA/PIPA 반대 운동처럼 예외적 사례는 있지만, 대부분은 개인의 이익보다 기업의 동기가 훨씬 큼
결국 민주주의가 약화되는 메커니즘과 동일함 -
법인 개념 자체를 바꾸는 것이 해법일 수 있음
법인은 본질적으로 책임 회피를 위한 구조이므로, 다단계 법인이나 특수목적법인(SPV)을 제한해야 함
그리고 Friedman Doctrine을 신봉하는 정치인과 판사에게 투표하지 말아야 함
지금 사회는 자본 소유자 중심으로 기울어 있음 - 이런 법이 통과된다면 헌법 위반 소지가 큼
“순자산 10억 달러 이상이면 누구든 때려도 면책” 같은 법과 다를 바 없음
결국 법원이 부패하지 않는 한 무효화될 것임 - 개인이 할 수 있는 일은 제한적임
사회적 행동으로 전환하는 방법이 문명 자체의 숙제임 - 많은 이들이 무시하겠지만, 민주당에 투표하라고 말하고 싶음
소비자 보호국(CFPB)을 만든 것도 민주당이었고, 공화당은 그것을 약화시켰음
독점과 조작을 막는 정치세력을 지지해야 함
특히 젊은 진보 세대가 등장하고 있으니, 예비선거에서 올바른 후보를 선택하는 게 중요함
결국 유권자의 25%만 바뀌어도 세상은 달라질 수 있음
- 사회 전체적으로는 막기 어려움