Learning & Reasoning

Artificial Intelligence meets Natural Stupidity

이현봉 2016. 5. 19. 01:51

Artificial Intelligence meets Natural Stupidity

Knowledge Representation, Reasoning을 읽다가 따라오게 된 글.  70년대 logic/Symbolic AI가 한참 연구될 당시에 연구자들이 포장하던 것, 얼버무린 것 그리고 그런 것을 우려하던 얘기. 

인공지능, 자연어 처리, GPS 이런 말들을 너무 쉽게 사용하긴 했다.  70년대 초에도 "자연어 인터페이스"가 곧 될 것이라 생각했다고...  (God help us, a top-level "ego loop"). 이 말 멋있다. 

Emasculated misnomer.  완전 알맹이가 없는 부적절한 명칭이라고, Semantic Net이.  is-a 관계를 너무 쉽게 생각해 안되는 곳에도 갖다붙였나?  member_of, subset_of, inherits, composed_of, instance, class/category 를 분별해서 써야 겠다. 이 후에 semantic net도 발전하지 않았을까?  Decision tree의 R. Quinlan이 전에는 logic을.   

** Only a preliminary version of the program was actually implemented **  이 말은 사실 "A side-tracking control structure approach to Pornographic Question-Answering. 신랄하다.

진짜 나쁜 것은, 맞지 않고, 제대로 하지도 않았는데, 마치 다 된 것 같이 포장해 후배들을 오도하고, 잘 못된 길로 보내는 것.  가망없는 말 안되는 이론으로 마치 이렇게 하면 되는 것 같이 포장해 (그리고는, 이론이 다 되었기에 implementation은 그저 쉬운 것처럼 포장하고) 나중에 후배가 이 문제를 해 보려 할 때에는 정작 "그것은 그 사람의 implementation 뿐이야" 소리나 듣게 해 정작 맞는 방향으로 나갈 기회나 막고.


보통 사람이 이해하고, 운용할 수 있는 Knowledge Representation & Reasoning 모델로 무엇이 좋을까?  가성비가 좋은 것.  누구나 다 이런 것을 바라는 것 아닌가?  No pain, no gain?  First Order Logic이나 더 높은 수준의 Logic은 표현력이나 Inference 능력이 강력하지만, 글쎄...  Semantic Net같은 graphical 모델은?  개념을 확장하면 FOL 수준의 표현이 가능하다고 하는데.  어느 정도면 될까?   


Ref;

That IS-IN Isn’t IS-A: A Further Analysis of Taxonomic Links in Conceptual Modelling