캘리포니아 주지사, AI 투명성 법안 서명
(gov.ca.gov)- 캘리포니아 주지사가 AI 투명성을 강화하는 법안에 서명함
- 이번 법은 AI 시스템의 개발 및 사용에 있어 투명성 기준을 제시함
- 기업들이 AI의 의사결정 과정과 영향에 대한 정보를 공개해야 하는 의무 발생
- 주요 목적은 소비자 보호와 AI 오용에 대한 책임 강화임
- 법 시행으로 AI 산업 규제와 윤리적 개발을 촉진하는 기반 마련임
캘리포니아 AI 투명성 법안 개요
- 캘리포니아 주지사가 AI 투명성 강화를 위한 새로운 법안에 공식 서명함
- 이 법안은 기업과 기관이 AI 시스템을 개발하거나 활용할 때 의사결정 과정에 관련된 정보를 공개하도록 요구함
- 주요 내용으로는 AI가 어떤 데이터와 기준을 사용하여 결론을 내렸는지, 해당 시스템의 잠재적 영향이 무엇인지에 대한 설명 책임을 명시함
- 소비자가 AI 기반 서비스나 제품을 사용할 때 자신이 알고리듬 결정에 영향을 받았음을 알 수 있도록 투명성 확보 장치를 마련함
- 궁극적으로 이번 법안은 AI 산업의 책임성 제고와 함께, AI 오용 방지 및 소비자 신뢰 회복을 목표로 함
- 법 시행을 통해 캘리포니아는 미국 내에서 AI 윤리와 규제 선도주로 자리매김할 전망임
Hacker News 의견
- 현실 세계의 문제라면, 이 법안이 내 지적재산(IP)이 LLM에 의해 허가 없이 사용되는 걸 막아줄 수 있는지 궁금함
- 이 법안의 가장 큰 목적은 실제 데이터에 근거한 논의를 할 수 있는 기본 프레임워크를 제공하는 것임. 그래서 기술 기업이 안전계획, 투명성 보고서, 사고 내역을 공개하도록 요구함. 벌금도 1만 달러로 낮게 설정된 이유임. 포괄적 AI 규제는 지금 시점엔 너무 이르며, 캘리포니아는 미국 저작권법을 관장하는 주체도 아님
- 정부에서 퍼블릭 컴퓨팅 클러스터 개발 프레임워크를 만들도록 지시함. 이 법안에는 일부 정부 계약업체에게 큰 이익이 돌아갈 가능성이 크며, 역사적으로 봤을 때 수의계약 형태로 특정인에게 돈이 흘러갈 수도 있다고 생각함. 관련 기사 참고: Sacramento Bee 편집 사설
- 내부고발자 보호 조항이 포함되어 있음. 이로 인해 불법적 행위가 폭로될 수 있음
- 지금도 인간에 의한 IP 침해와 같은 방식으로 보호할 수 있음
- 결국 이 법안은 정부 공무원에게 더 많은 돈을 안겨주는 현실적인 문제를 해결함
- 실제 법안 조문과 주석을 볼 수 있는 웹사이트를 찾았음: https://sb53.info/
- "인공지능 모델"의 정의를 보면 자율성 수준이 다양한 기계 기반 시스템으로, 입력에서 출력을 도출해 물리적 또는 가상 환경에 영향을 줄 수 있는 경우 전부 해당됨. 즉, 단순한 잔디깎이도 입력(스로틀, 킬스위치)과 출력(회전날) 사이의 관계가 있으니 포함될 수 있음. "치명적 위험"의 정의는 50명 이상 사망/중상 또는 10억 달러 이상 손실이 발생할 수 있는 위험이라고 되어 있는데, 매년 잔디깎이로 다치는 사람만 해도 이보다 많음
- 법안 원문을 읽어보면 "AI 안전" 산업에 대한 특혜 제공처럼 느껴짐. 컴플라이언스 인증에 높은 보상을 받게 됨
- Big4 회계법인에는 자문 부문을 분리하지 못하게 붙잡는 부머 파트너들이 있는데, 이번 AI 법안은 이들에게 새로운 수익원이 될 것임. 특히 deloitte가 이번에 큰 이익을 볼 것으로 봄
- 위 댓글을 쓴 분은 대형 AI 개발사에 재직 중임. AI 규제에 반대하는 입장은 자신의 월급과 잘 연결됨. 'AI 안전'에 대해 조롱거리로 삼는 경향도 있음. 실리콘밸리의 많은 산업은 안전 문화에 대한 인식이 부족함. 규제 효율이 떨어지는 건 문제지만, 규제가 전혀 없을 때 발생할 문제도 고려해야 함. 업계의 내부 비리, 리베이트, 담합도 반드시 지적해야 함
- 법안에는 '사망, 중상, 치명적 위험'을 초래하는 고의적 위반 시 첫 위반은 100만 달러, 이후는 최대 1천만 달러 벌금이라고 명시되어 있음. 비고의적 위반(실수 등)이 해당 위험을 만들어도 벌금은 없음. 벌금은 상한만 있고 하한은 없음. 즉, 0달러도 '최대 1천만 달러 이하' 조항을 충족함
- 10억 달러 손해를 일으켜도 1천만 달러만 벌금인가? "치명적" 손해도 마찬가지임. 이건 규제가 아니라고 봄. OpenAI가 엔지니어에게 연간 100만 달러를 준다고 해도, 1만 달러 벌금 혹은 1백만, 1천만 달러 벌금은 전혀 억제 효과가 없음
- 논의만 보면 이 법안은 아무런 의미가 없으면서도, 동시에 캘리포니아에 대한 지오블록 사유가 됨. 과도하게 많은 걸 하지만, 동시에 너무 적게 함. 비용이 높기도, 낮기도 함. 부패의 예시이면서도 AI 규제의 첫걸음임. AI 기업이 캘리포니아를 떠날 수도, 규제의 기준이 낮으니 더 많이 들어올 수도 있음. 실제 더 심도있는 논의가 있다면 링크를 알고 싶음
- 모든 결과가 가능한데, 실제 정부와 법원이 어떻게 해석하고 집행하느냐에 따라 달라질 거라고 생각함. 법 문구 자체가 너무 애매해서, 망치가 될 수도, 아무 영향도 없을 수 있음
- 연방법으로 미리 통제했어야 할 사안이라고 봄. 하지만 이 법안 정의가 너무 허술함. 특히 "인공지능 모델" 정의는 사실상 모든 기계와 알고리즘을 포함함. 해당 정의는 트와일라잇 존을 보며 혹시라도 뻐꾸기시계 달린 안드로이드가 나올까봐 대비한 것 같음
- 캘리포니아가 AI를 어떻게 정의할지 궁금했는데, 현재는 마케팅 용어에 가까움. 여기서는 입력을 받아 출력을 생성하는 비생물학적 시스템이라고 명시함
- 이 댓글에 대한 두 가지 반응이 재미있음: "이 정의에 해당하는 실제 기술 없음", "즉, 내 커피메이커?"
- 나의 의견은 위와 다름. 이 정의에 맞는 기술은 실제 존재하지 않음. AI는 입력에서 뭔가를 '추론'하지 못함. 마찬가지로 인간도 증명된 바 없음
- 그럼 내 커피메이커도 해당되는 것 아닌가
- 이건 한마디로 ‘절차만 더 추가된 검열’임. 법안이 요구하는 걸 보면 기업이 위험 완화 및 안전 프로토콜을 문서화해야 하고, 정부가 무엇이 위험한지 정의하고 민간이 그에 따라 필터링 시스템을 구축해야 함. 이는 미국 수정헌법 1조에 반하는 사전검열임. 이미 연방대법원에서 폭력행위 직접 촉구(Brandenburg 판례)와 예외적 사안(아동포르노, 실질적 위협)만 허용된다고 명확히 했음. 기술이 새롭다는 이유로 국가가 새로운 위험 발언 범주를 만들 권한 없어야 함. AI가 무기 설계나 범죄 조력에 관한 전문가급 정보를 제공할 경우, 정부에 리포트하고 완화책도 제공해야 함. 오늘은 "치명적 위험"이지만, 내일은 "허위정보", "증오발언" 등으로 늘어날 수 있음. 일단 국가가 안전명분으로 콘텐츠 제한을 강제하는 순간 논리적 정당성을 잃게 됨
- 이미 18 USC § 842에 따라 폭발물 제조법 등 범죄에 사용될 정보 제공은 범죄임. 표현의 자유와 실제 해악 확률 간에 균형을 둠. AI는 표현의 자유 주체가 아니므로 국가가 규제할 수 있음. 기업에게 AI 출력물 필터링을 요구하는 것이 사전검열이며, 이는 기업이 AI의 "말"을 통제하지 못한다는 주장에 근거함. 이 논리는 성립하지 않음. 임의 조합 문장 생성기도 내 온라인 호스팅이라고 해서 보호받진 않음. AI 검열에 대해 표현의 자유 논리를 적용하는 건 적합하지 않음
- LLM에는 권리가 없음. LLM은 도구이며 국가가 도구를 규제할 수 있음. 설령 마음이 맞는다면 사람이 회사 블로그에 직접 무기 제조법을 올릴 수도 있음
- "오늘은 치명적 위험, 내일은 허위정보, 증오발언 등" 이런 점이 문제임. 나는 치명적 위험보다 일상적 위험이 더 걱정임. LLM이 해로운 정보를 준다 해도 결국 온라인에 이미 공개된 내용의 요약일 뿐임. 미국사회는 증오발언이 가득하지만, 이것도 새로운 문제는 아님. 오히려 문제는 "허위정보"임. 대규모 LLM이 인터넷을 읽고 권위를 덧붙이기에 구글이나 MS의 힘이 검증되지 않은 정보에 실리게 됨. LLM은 "Y가 X를 주장했다"는 형태로 안내하는 게 좋은 접근임. "안전"이라는 이슈는 대부분 성인 콘텐츠 차단인데, 이미 포른허브 시대에 큰 의미 없다고 생각함. 실제 논의가 필요한 문제는 AI가 고객을 속이거나 피하기 위한 상업적 목적의 커스텀 서비스 제공임. 이는 소비자 권리 차원에서 다뤄야 함. 또 하나 문제는 AI가 나의 상사로 동작하는 경우(예: Uber)임
- 지난 15년 간 소셜미디어 발전 과정을 보며, 신속한 위험 평가와 대응이 너무 늦었다는 교훈을 얻음. 소셜미디어는 이미 정치적 영향력을 쌓아 실질적 규제가 거의 불가능한 상태임. 생성형 AI에서도 동일한 실수를 반복하지 않기를 바람