보도 자료

서명 또는 거부: 캘리포니아의 AI 재해 법안인 SB 1047의 다음 단계는 무엇입니까?

0 0
Read Time:4 Minute, 9 Second

논란이 되고 있는 캘리포니아주 AI 재해 예방 법안인 SB 1047이 주 상원에서 최종 표결을 통과했으며 이제 Gavin Newsom 주지사의 책상으로 옮겨졌습니다. 캘리포니아의 AI 붐을 저지할 가능성과 AI 시스템의 보다 극단적인 이론적 위험(인간 사망에 대한 역할 포함)을 비교 평가해야 합니다. 9월 30일까지 SB 1047에 서명하거나 완전히 거부권을 행사해야 합니다.

주 상원의원 Scott Wiener가 도입한 SB 1047은 초대형 AI 모델이 인명 손실이나 5억 달러 이상의 피해를 입힐 수 있는 사이버 공격과 같은 재앙적인 사건을 일으킬 가능성을 방지하는 것을 목표로 합니다.

분명히 말하면, 오늘날 법안이 적용될 만큼 광범위한 AI 모델은 거의 없으며 AI는 이 규모의 사이버 공격에 사용된 적이 없습니다. 하지만 이 법안은 현재 존재하는 문제가 아니라 AI 모델의 미래에 관한 것입니다.

SB 1047은 AI 모델 개발자에게 그들이 초래한 피해(예: 대량 총격 사건으로 인한 총기 제조업체)에 대한 책임을 묻고, 캘리포니아 법무장관에게 AI 회사의 기술이 치명적인 사건에 사용될 경우 무거운 처벌을 받도록 고소할 수 있는 권한을 부여합니다. 회사가 무모하게 행동할 경우 법원은 해당 회사에 운영 중단을 명령할 수 있습니다. 또한 해당 모델에는 위험하다고 간주될 경우 전원을 끌 수 있는 “킬 스위치”가 있어야 합니다.

이 법안은 미국의 인공 지능 산업을 변화시킬 수 있으며 법이 되기까지 한 걸음 남았습니다. SB 1047의 미래가 어떻게 진화할 수 있는지 살펴보겠습니다.

뉴섬이 왜 서명할까요?

Wiener는 실리콘 밸리에 더 많은 책임이 필요하다고 주장했으며 이전에 TechCrunch에 미국이 과거 기술 규제 실패로부터 배워야 한다고 말했습니다. Newsom은 AI 규제에 단호하게 행동하고 Big Tech에 책임을 묻도록 동기를 부여받을 수 있습니다.

Elon Musk를 포함한 일부 AI 경영진은 SB 1047에 대해 조심스럽게 낙관했습니다.

SB 1047에 대한 또 다른 신중한 낙관론자는 전 Microsoft 최고 인공 지능 책임자인 Sophia Velastegui입니다. 그녀는 TechCrunch에 “SB 1047은 좋은 타협안”이라고 말했지만 법안이 완벽하지는 않다는 점을 인정했습니다. “저는 미국이나 관련 작업을 수행하는 모든 국가를 위해 책임 있는 인공지능 부서가 필요하다고 생각합니다. Microsoft만이 있어서는 안 됩니다.”라고 Velastegui는 말했습니다.

Anthropic은 SB 1047의 또 다른 신중한 지지자이지만 회사는 법안에 대해 공식적인 입장을 취하지 않았습니다. 스타트업이 제안한 몇 가지 변경 사항이 SB 1047에 추가되었으며, CEO Dario Amodei는 이제 캘리포니아 주지사에게 보낸 서한에서 법안의 “혜택이 비용보다 클 가능성이 크다”고 말합니다. AI 모델은 SB 1047의 이전 버전에서 언급한 것처럼 이전에는 없었던 치명적인 피해를 입힙니다.

Newsom이 이를 거부할 수 있는 이유는 무엇입니까?

이 법안에 대한 업계의 강력한 반대를 감안할 때 Newsom이 법안을 거부하더라도 놀라운 일이 아닙니다. 만약 그가 서명한다면 그의 명성은 SB 1047에 달려 있을 것이지만 그가 거부한다면 그는 이 문제를 1년 더 연기하거나 의회에서 처리하도록 할 수 있습니다.

Andreessen Horowitz의 총괄 파트너인 Martin Casado는 TechCrunch와의 인터뷰에서 “이번(SB 1047)은 우리가 30년 동안 소프트웨어 정책을 다루어 온 선례를 바꿉니다.”라고 말했습니다. “책임이 애플리케이션에서 인프라로 이전되는데, 이는 우리가 이전에 해본 적이 없는 일입니다.”

기술 업계는 SB 1047에 대해 거센 항의로 대응했습니다. a16z와 함께 낸시 펠로시(Nancy Pelosi) 하원의장, 오픈 AI(Open AI), 빅테크 무역 그룹, 저명한 인공지능 연구자들도 뉴섬에게 법안에 서명하지 말 것을 촉구하고 있습니다. 그들은 책임에 대한 이러한 패러다임의 변화가 캘리포니아의 AI 혁신에 냉각 효과를 미칠 것이라고 우려합니다.

당신이 원하는 마지막 것은 스타트업 경제가 타격을 입는 것입니다. 인공지능의 등장은 미국 경제에 큰 활력을 불어넣었고, 뉴섬은 이를 낭비하지 말라는 압력에 직면해 있습니다. 미국 상공회의소도 뉴섬에게 보낸 서한에서 “AI는 미국 경제 성장에 매우 중요하다”며 법안 거부를 요청했다.

SB 1047이 법이 된다면

Newsom이 법안에 서명하면 첫날에는 아무 일도 일어나지 않을 것이라고 SB 1047 초안에 참여한 소식통이 TechCrunch에 말했습니다.

2025년 1월 1일까지 기술 회사는 AI 모델에 대한 안전 보고서를 작성해야 합니다. 그 시점에서 캘리포니아 법무장관은 법원이 AI 모델이 위험하다고 판단할 경우 AI 회사에 AI 모델의 훈련이나 운영을 중단하도록 요구하는 법원 명령을 구할 수 있습니다.

2026년에는 법안의 더 많은 부분이 시행될 예정이다. 그 당시 Border Models Board가 만들어지고 기술 회사로부터 보안 보고서를 수집하기 시작했습니다. 주지사와 캘리포니아 주의회가 선출한 9명으로 구성된 위원회는 어떤 회사가 규정을 준수하고 어떤 회사가 그렇지 않은지에 대해 캘리포니아 법무장관에게 권고할 것입니다.

같은 해 SB 1047은 AI 모델 개발자가 보안 관행을 평가할 감사자를 고용하도록 요구하여 AI 보안 규정 준수를 위한 새로운 산업을 효과적으로 창출할 것입니다. 그리고 캘리포니아 법무장관은 AI 모델 개발자의 도구가 재앙적인 사건에 사용된 경우 고소를 시작할 수 있습니다.

2027년까지 Frontier Models Board는 AI 모델 개발자에게 AI 모델을 안전하게 훈련하고 운영하는 방법에 대한 지침을 발행하기 시작할 수 있습니다.

수의사 SB 1047

Newsom이 SB 1047을 거부한다면 OpenAI의 바람은 실현될 것이며 연방 규제 기관은 결국 AI 모델 규제에 앞장설 것입니다.

목요일에 OpenAI와 Anthropic은 AI에 대한 연방 규제가 어떤 모습일지에 대한 토대를 마련했습니다. 보도 자료에 따르면 그들은 연방 기관인 AI 안전 연구소에 고급 AI 모델에 대한 조기 액세스를 제공하기로 합의했습니다. 보도 자료동시에 OpenAI는 AI 안전 연구소가 AI 모델에 대한 표준을 설정하도록 하는 법안을 승인했습니다.

오픈AI CEO 샘 알트만(Sam Altman)은 목요일 트위터를 통해 “여러 가지 이유로 우리는 이것이 국가 차원에서 일어나는 것이 중요하다고 생각한다”고 밝혔다.

연방 기관은 일반적으로 캘리포니아 기관보다 덜 번거로운 기술 규정을 제정하고 이를 수행하는 데 상당히 오랜 시간이 걸립니다. 그러나 그 이상으로 실리콘 밸리는 역사적으로 미국 정부의 중요한 전술적, 상업적 파트너였습니다.

Casado는 “실제로 연방 정부와 협력하는 최첨단 컴퓨터 시스템의 오랜 역사가 있습니다.”라고 말했습니다. “국립연구소에서 일할 때는 새로운 슈퍼컴퓨터가 나올 때마다 첫 번째 버전이 정부에 보내졌죠. 정부가 필요한 역량을 갖출 수 있도록 그렇게 한 것인데, 보안 테스트보다 그게 더 나은 이유라고 생각한다”고 말했다.

(이것은 신디케이트된 뉴스피드에서 편집되지 않은 자동 생성된 기사입니다. 파이에듀뉴스 직원이 콘텐츠 텍스트를 변경하거나 편집하지 않았을 수 있습니다.)

About Post Author

Lucia Stazio

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %

Related Articles

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%
Back to top button