AI에게 권한을 주는 것은 결국 사람입니다만, 현실적으로 AI는 적어도 지금보다 더 큰 권한과 자율성을 부여받을 가능성이 높다고 생각합니다.
지금의 추세를 보면 AI에게 무언가를 인간 대신 하게끔 맡기는 범위가 점차 늘어나고 있죠. 보고서 작성이나 바이브 코딩은 물론이고, 웹 브라우저나 심지어 로봇을 통해 채팅 인터페이스 바깥 세계에도 영향력을 행사할 수 있게 하려는 흐름이 있습니다.
그렇다면 경영진은 궁극적으로 특정 업무나 분야에서 AI가 인간을 완전히 대체하게끔 하고 싶을 것이고, 그것이 실현 가능해진다면 적어도 해당 범위에서는 AI가 인간과 동일한 권한과 자율성을 지니게 될 것입니다.
따라서 언젠가 올 미래에는 AI가 인간 수준의 권한을 받을 가능성도 높다고 판단해야 하지 않나 싶습니다.
그렇다면 그렇게 많은 권한과 자율성이 주어졌을 때 AI가 어떻게 행동하느냐가 중요해질 수밖에 없습니다.
이 부분을 구조적으로 어떻게 하면 좋을지 바람직한지에 대한 내용은 GPT 시리즈의 답변 쪽에 잘 정리되어 있습니다. 명시적인 범위 지정과 권한 분리, 다수의 사전/사후 감독 및 인간이 AI에게 개입할 수 있는 여러 수단 등이 필요하다고 했지요. 물리적인 개입이 가능한 영역부터는 애초에 AI에게 완전 자율을 주는 것 자체가 부적절하다는 겁니다. 하지만 그 경우에도, 인간을 루프 안에 끼워 넣는 것도 언젠가 약화될 가능성이 있겠죠.
참고로 저는 업무 중 크게 3가지 부분에서 AI를 쓰고 있습니다. 문서나 이메일 작성, 기존 코드 및 현재 이슈 분석, 이슈에 따른 코드 생성 및 수정.
이때 문서나 이메일 같은 경우에는 그냥 결과물을 제가 직접 읽어보고 그걸 그대로 쓰거나 혹은 대충 고쳐서 쓰지만, 무언가 코드 생성이나 수정이 들어갈 때는 훨씬 보수적으로 쓰고 있습니다. 그냥 대충 "이거 좀 고쳐줘" 하니까 AI가 제 지시를 모호하게 해석하거나 심지어 제가 언급도 하지 않은 부분을 제멋대로 건드리는 경우도 있더라고요.
그래서 코드 수정 전에는 반드시 STICC에 따른 스펙 문서를 항상 먼저 제시하여 명시적으로 승인받도록 전역 프롬프트로 박아 놨고, 실제 수정 작업은 딱 스펙에 있는 내용대로만 진행하게끔 하며, 수정 후에도 diff는 전부 다 제가 직접 확인합니다. 그리고 빌드 같은 명령어 실행도 항상 제 승인을 받거나, 혹은 그냥 제가 직접 수동으로 터미널에서 실행하고 있고요.
이렇게 하니까 사소한 건 그냥 제가 손으로 수정하는 게 더 빠르다는 문제점이 있지만, AI가 자기 멋대로 엉뚱한 걸 건드려서 터지는 것보다는 낫더라고요. 결국 그게 운영 환경에서 터지는 건 제 책임 아니겠습니까.
ai한테 얼마나 자율성, 권한을 줘야 한다고 생각해? 라는 질문을 ai한테 던지는 건 좀 의미심장하네요.
너한테 얼마만큼의 권한을 줬으면 좋겠어? 라고 ceo가 직원에게 물어봤을 때, 회사의 전권을 다 줬으면 좋겠어요, 답하는 느낌일까요. 그걸 좋은 답이라고 생각할지, 사회화가 덜 된 직원이라고 생각할지는 ceo의 취향이겠지만...
다만, 저는 ai에 얼마나 권한을 주고 싶은지는, ai보단, ai를 사용하는 개발자, 경영진, 사람들한테 물어봐야 하는 게 아닌지 싶습니다.