85년 이래 인공지능을 했지만 지금처럼 정신없이 전진이 이루어지는 때를 본 적이 없다.
뭐니 뭐니 해도 가장 큰 놀라움은 Backprop에 바탕한 신경망에 적절한 구조, 크기, 데이터, 학습 방법이 결합하면 지금 우리가 보는 이런 모델들이 가능하다는 것. Backprop 말고 좀 더 쌈박한 학습 이론, 뭔가 새로운 구조 같은 것이 요구되지 않을까 했는데, 잘 못 생각한 것 같다. Backprop이 자연계의 진화에 사용되는 장치보다 비교 불가능하게 훨씬 효율적임을 알고는 있었지만, 이 정도로 universal한 방법인 것은 상상하기 어려웠다.
ChatGPT만 해도 Turing test 급 능력은 아득히 넘어섰고, 실제 감각과 경험에 바탕한 World Model에 grounding 되지 않고 단지 글로 세상을 학습했음에도 이런 능력을 보이니. 물론 많은 글에 세상이 어떻게 되어있고, 돌아가는 지 나타나 있어 이를 보고 세상을 학습했겠지만 그래봐야 간접경험 글을 통해서인데...
신경망이 reasoning, planning 도 썩 하고 그럴싸한 속임수도 구사한다. 당연한데, 세상의 글 중에 목표를 이루기 위해 거짓말, 속임수, 조종하는 내용이 얼마나 많은가? 정치인들이 사람들을 기만, 조종하는 수많은 사례들이 다 자신들의 goal을 이루기위한 것이고 이들이 다 학습자료인데. 이렇기에 ChatGPT가 prompt에 대한 답변에 그럴싸한 신빙성을 더하려는 goal에 입각해 가공의 reference를 생성하는 hallucination을 하는 것이겠다. 사람이 주입한 goal 이 아니고 AI가 자체 생성한 goal/동기에 따라 사람을 조종하는 상황 물론 예상가능하다. Alignment를 거치기 이전의 GPT4는 어땠을까 궁금하다.
요즘 그래서 인공지능 연구의 적절한 규제 얘기가 썩 먹히고 있다. 최소한 우리가 만든 AI를 좀 더 자세히 이해, 예측할 수 있을 때까지 만이라도.
'물질 두뇌 마음 인공지능... 이것저것' 카테고리의 다른 글
LLM 들 (0) | 2024.03.02 |
---|---|
AI 기반 프로그래밍 (0) | 2023.06.20 |
ChatGPT와 오늘의 대화 (0) | 2022.12.31 |
Would AI dream in color? (0) | 2022.06.12 |
기억해야 할 말들 (0) | 2017.01.03 |