:: 게시판
:: 이전 게시판
|
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
통합규정 1.3 이용안내 인용"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
17/05/23 22:38
소설 하나 써봅니다.
다전제에서 최초로 알파고를 이긴 프로기사가 등장했다. 비결을 묻는 기자의 질문에 그는 옅은 미소를 띄우며 대답했다. "알파고에게 마음을 주었어요. 욕심이라는 이름의 마음을."
17/05/23 22:40
이번 알파고 버전은 이세돌 기사와 벌였던 작년 버전과 다르게 선행 기보입력없이 처음부터 알파고끼리만 연습했다고 들었습니다.
그렇다면 첫 수순을 (1,1)좌표 (1,2)좌표 이런 식으로 순서대로 두면서 연습했을까요? 아니면 전통대로 화점 주변부터 뒀을까요? 프로그래머시라니 혹시나 아실까 싶어 여쭙니다.
17/05/23 22:43
직업이 프로그래머라는 것이지, 제가 구글에서 알파고를 제작한 건 아닌 지라, 어디까지나 추측입니다만,
정말로 기보를 사용하지 않고, 제로 베이스에서 스타트했다면, 첫수는 완전한 랜덤이어야만 한다고 생각합니다. 즉, 361개의 착수지점 아마데나 두고 시작했어야 한다는 거죠. 물론, 이렇게 시작하기 위해서는 그만한 처리능력을 지닌 하드웨어 파워가 필요하므로 일반적으로는 시도도 못하겠지만, 구글이니만큼 정말 완전한 랜덤에서 시작했을 수도 있지 않나 추측해 봅니다.
17/05/23 22:46
머신 러닝 초반에는 첫수를 전체 반상에서 랜덤해서 뒀겠죠.
순서대로도 아니고 화점 주위도 아니었을 것 같습니다. 그러다가 점점 화점 주위(소목 같은)에 첫 수를 놓았을 때의 결과가 좋기 때문에 점점 그런 식으로 뒀을 껍니다.
17/05/23 22:49
그렇겠군요. 아직 모든 경우의 수를 계산하기엔 시간과 자원이 모자라니까 첫 수순은 랜덤으로 하는게 효과적이겠군요.
인공지능 발전 속도로 보면 한 10년 안에 모든 경우의 수를 계산한 알파고가 나오던가 아니면 모든 경우의 수를 계산하지 않아도 가장 승률 높은 수순 및 덤집 계산이 끝날 것 같아 기대가 됩니다. 답변주신 분들 감사합니다.
17/05/23 22:51
바둑의 모든 경우의 수를 검증해 본다는 의미에서 하신 말씀이시라면 현재의 전자식 컴퓨터에서는 아마 불가능에 가까울 듯 합니다.
전자식 컴퓨터보다 수억배 빠르다는 양자컴퓨터 시대가 도래한다면 정말 바둑의 모든 수를 검증해 보고, 단 하나의 완벽한 경로(신의 한수?)를 찾아낼 수 있을 지도 모르겠네요. 만약 찾아낸다면 그건 바둑의 종말을 의미하는 것이 되겠지만요.
17/05/23 23:47
말씀하신 기보 학습후 알파고끼리 대결을 진행해서 데이터를 축적한게 이세돌과 대결한 알파고구요.
이번에 커제와 대결한 알파고2.0은 기보학습을 배제하고 완전히 제로베이스에서 데이터를 축적했다고 합니다.
17/05/23 22:40
설명 잘 들었습니다.
요즘 과제 딸려고 머신러닝을 좀 배워보고 있는데..레이어를 잘 짜면 4번의 경우에 같은 100%라면 10집 이기는 곳에 둘거 같네요..
17/05/23 22:45
사실, 같은 승률이라면 많이 이기는 수를 두게 하는게 어려운건 아닌데, 그냥 불필요해서 생략한 듯 합니다.
논리만 따지는 프로그래머들이라면 아예 고려조차 안해봤을 수도 있구요.
17/05/24 16:42
알파고 제작진들은 전부 바둑을 둘 줄 안다고 하더라구요.
가장 잘 두는 사람은 아자황 박사구요. 인류 최초의 친알파..부들부들..
17/05/23 22:58
스타판에도 '아슬아슬하게 막는 것이 최고의 수비다'라는 말이 있었듯이, 알파고도 비슷한 양상을 생각하는게 아닐까 생각합니다.
보기에는 미친 것처럼 보여도 몇 십 수 앞을 내다보면 어쨌거나 승리가 보장되는 길이니까요. 알파고에게 압승은 필요없지만, 저희에게 압승은 '안전해보이는 길'을 선택하는 것이기도 하고요.
17/05/23 22:58
치수고치기를 커제랑 중국기원에서 거부했다더군요.
정선/호선/접바둑 이런식으로 가지 말고 집수에 따른 승패조건을 알파고에게 걸고 (인간 프로바둑기사에게 매우 굴욕적으로 보일 수 있겠지만) 하는 대국을 보고 싶습니다. 예를 들면 30집 이상 차이를 벌려야 알파고 승, 못 벌리면 알파고 패 이런 식으로요 프로바둑기사는 반집(이 의미하는 넘사벽)의 차이를 넘을 수 없으니, 방식을 바꿔서 알파고가 어떻게 극단적으로 공격하는지 보고 싶어지네요.
17/05/23 23:05
60연승 기보를 본 프로기사들 중 일부는 알파고가 석점까지는 모르겠는데, 두점은 확실히 위라고 하는 걸 보면
인간에게 20집쯤 덤으로 주면 좋은 승부가 될수 있지 않을까 싶은데, 접바둑은 또 달라서 해봐야 알겠죠.
17/05/23 23:09
아 저는 반집만 이겨도 되는 바둑과
30집을 이겨야 하는 바둑의 알파고가 어떻게 달라질 지 궁금해서 쓴 댓글이었습니다. 접바둑이라면 수의 방향성이 좀 달라지겠지만
17/05/23 23:13
아 그런 말씀이셨군요.
프로기사 상대로 30집을 이겨야 한다는 미션을 준다면 알파고가 좀 더 타이트하게 정교한 바둑을 두게 되겠지요. 하지만, 인간 자존심에 프로기사 쪽에서 그런 바둑에 응하기는 쉽지 않을 듯 합니다.
17/05/24 00:17
댓글 다 쓴줄 알았는데 중간에 짤렸네요ㅜ
네 흐흐 제가 알파고 기보를 챙겨보고 마스터 기보를 본 것도 아닙니다만 (하수라 본다고 해도 이해못하겠네요 크크) 뭐랄까 30집 같은 차이를 두면 알파고가 다 때려잡으려고 한다든지 아니면 있는 대로 뛰어들어서 미생마 다 살리려고 한다든지 그런 게 나올 듯해서 쓴 댓글이었습니다 기보를 보니 5선 어깨짚음이라던지 오늘 초반 우중앙에서 눈목자로 축머리 두는 것 등등 두텁고 이후 수와 연결되는 큰그림 잘그리는 것 같은데 완전 극한수읽기도 한번 보고 싶어서요 지금 대국도 극한 수읽기에서 나오지만 알파고를 뜯어서 해설을 들을 수 없으니 30집 정도 극단적인 차이를 줘버리면 어떨까 싶어서 쓴 바알못의 댓글이었습니다 다만 이번에 구글에서 치수고치기를 제안했는데도 커제와 중국기원에서 거절했다는 기사가 있던데 사실이라면 앞으로도 호선대결이 한동안 이어질 것 같아요
17/05/24 00:28
알파고 온라인 60전 기보 보시면, 상대 대마 다 잡아먹은 기보도 있고,
대세력을 다 깨어 먹는 기보도 있습니다. 프로기사쪽이 큰 대마를 만들어서 그걸 안잡으면 못이기겠다 싶으면 알파고도 잡으러 가구요. 대세력을 만들어서 그걸 깨지 않으면 못이기겠다 싶으면 알파고도 뛰어든 다는 것이지요. 프로기사쪽이 그냥 무난하게 두면 알파고도 그냥 무난하게 두고요.
17/05/23 22:59
그리고 이건 묻어가는 질문인데, 커제의 기풍이 기존의 어떤 프로바둑기사와 비슷한가요? 제가 커제 바둑을 본 게 오늘 처음이라서 질문드립니다.
17/05/23 23:06
10집반 이기는 90퍼센트 확률과
한집반 이기는 91퍼센트 확률이 있다면 알파고는 주저없이 한집반의 91퍼센트 승률을 선택하기에 그런것이다.. 라는 설명을듣고 이해를 했던기억이 있는데.. 아마 피지알댓글이었던거같네요 크크
17/05/23 23:11
10집반 이기는 90퍼센트와 한집반 이기는 91퍼센트의 수가 있을때,
인간은 애시당초 90퍼센트니 91퍼센트니 계산도 안되기 때문에 많이 이기는 10집반을 선택하게 되어 있습니다만, 알파고는 승률이 1% 더높은 한집반을 선택하겠지요. 사실 이렇게 승률 차이가 나는 경우 논란의 여지도 없습니다. 당연한 것이라서요.
17/05/24 00:27
욕심도, 기세라는 것도 영향을 줍니다.
그러니까 상대를 찍어누르려는 마음인데요 예전에 삼성화재배 결승이었나 그랬던 것 같은데 이세돌은 뻔히 쉽게 이기는 길 놔두고 상대를 완전히 압도적으로 관광태우는 수순으로 간 적이 있었습니다. 그때 아마 조훈현 9단이 해설하면서 단판승부가 아니고 번기승부(=다전제)이기 때문에 2차전을 위해서 일부러 저러는 것 같다고 해설했었던 기억이 납니다. 그리고 다른 스포츠종목에서도 자주 나타나는 현상인데, 그렇게 져버리면 다음에 마주쳤을 때도 영향이 크게 간다고 하더라구요. 예를 들면 이세돌이 잘못된 수를 두고, 그 수를 응징하는 수순이 뻔히 보이는 쉬운 수순인데도 이세돌이니까 뭔가 있을꺼야라고 생각해서 괜히 다른 길로 갔다가 졌는데 대국 이후 검토해보니 이세돌의 실수였다든지... 이런 부분은 알파고에겐 남의 이야기니까 더 무서운 거라고 생각합니다. 이젠 정말 갓스스톤만이 답인거 같아요 크크크
17/05/23 23:19
딱히 소팅을 할 필요는 없죠. 최고의 집을 낼 수 있는 수를 선택하는 것은 θ(n)이죠. 그리고 알파고에게 이 정도는 아무것도 아닐겁니다. 심지어 높은 승률의 모든 수를 찾아내는 프로세스가 있다면 굳이 한 번 더 n의 탐색을 할 필요도 없겠죠.
17/05/23 23:24
본문에도 썼지만, 네이처 기사에 의하면 최고의 집을 낼수 있는 수를 선택하는 것이 아니라, 최고의 승률을 내는 수들을 선택한 후 동일 승률이면 랜덤하게 취사합니다.
참고로, 바둑에서 최고의 집을 낼수 있는 수와 최고의 승률을 올릴수 있는 수는 등치가 아닙니다. 최고의 집을 낼수 있지만 엷은 수는 승률이 낮을 수 있고, 상대적으로 집수는 적지만 두터워 승률이 높은 수가 있을 수 있거든요. 소위 '방내기 바둑'이 아닌, 프로바둑 룰이라면 당연히 적게 이기더라도 승률이 높은 수를 선택하는게 더 많은 집을 내는 수를 선택하는 것보다 승리 목적에 부합하구요.
17/05/23 23:55
이를 위해서는 동일한 승률을 가진 수들에 가중치를 분배해 소팅해서 선택해야 하므로 그만큼 코스트를 소모하게 되는데
이 부분에 대한 이야기입니다.
17/05/24 00:25
좀 구체적으로 표현을 하려다보니 로지컬 프로그래밍스러운 표현이 되어 버렸군요.
최고의 승률을 가진 수들 중에서 랜덤하게 하나를 초이스하는 알고리즘 A와 최고의 승률을 가진 수들 중에서 가장 많은 수를 이기는 하나의 수(best one)을 선택하는 알고리즘 B가 있다고 했을때 A보다는 B쪽을 구성하는 것이 어떤 식으로든 코스트 소모가 많다는 걸 표현한 것입니다. 바둑의 승패룰을 고려하면 실익도 없구요.
17/05/24 09:33
기껏해야 θ(n)이므로 알파고의 연산수준으로 봤을 때 그 로직이 영향을 미치는건 코스트 관점에서 거의 없다고 봐야죠. 바둑의 실익 관점에서야 당연히 무익하지만 로직 코스트 측면에서 소팅을 언급하셔서 그 정도의 복잡도가 필요없다는 말씀을 드리는겁니다
17/05/23 23:27
네, 그럴수도 있겠죠.
경우의 수가 5개 있는데 10집 이기는 수가 한개, 반집 이기는 수가 4개 있다면, 반집 이기는 수를 선택할 확률이 80%겠네요.
17/05/23 23:30
흥미롭게 잘 봤습니다. 인공지능의 판단과 인간의 이해 사이에 있는 미지의 블랙박스는 경외의 대상입니다. 의학쪽에 빨리 접목됐으면 좋겠습니다. 왓슨이 있긴 하지만, 의사 입장에서 보면 미지의 블랙박스가 아니라 메리트가 별로 없습니다.
17/05/24 01:17
알파고는 승기를 확실히 잡았을 때 굳히기 위한 수를 둘텐데, 그 굳히기 또한 알파고 수준에서의 수싸움을 기준으로 하겠죠. 우리가 보기에 의미없는 수가 나온 때가 실은 만약 상대도 알파고였다면 손해를 볼 수 있었던 상황이었으며, 그러한 시도를 미리 차단하는 수였으리라 생각합니다.
다만 우리가 그렇게 생각하지 못할 뿐이라 봐요.
17/05/24 03:18
알파고 vs 알파고의 연습기보 방출을 한다면, 그걸 연구해서 인간바둑의 새로운 기풍이나 새로운 개념들을 장착해서 인간바둑 발전에 큰 도움이 되지 않을까요?
알파고 vs 인간을 연구하는것도 도움이 되겠지만 아무래도 수준이 비슷한 고수끼리의 접전에서 배울게 더 많을것같아서요.
17/05/24 04:25
알파고 "잡았죠"
착수(계산) 시간이 별로 걸리지 않고 두는걸 보면 어차피 이김이 더 빨리 튀어나온 수를 선택하는게 아닐까 싶네요
17/05/24 07:54
1판에 1주일 정도의 시간을 두고 여러명의 최고의 기사가 연구해서 1수식 둬 나간다면,
알파고와 인간의 대결이 또 궁금해 지네요. 마지막은 바둑의 정석이 한판에 다 완성되는 그런 꿈을 꿔 보기는 합니다.
17/05/24 09:08
지금의 확률에 따라 행동을 결정하는 알고리즘에서 기대값으로 수를 결정한다면, 어떤 결과가 나올지 궁금해지네요. 기대값 셋팅 알파고 vs 확률 셋팅 알파고 를 무한이 돌려서 그 결과에따라 집당 가중치를 설정한 알파고를 만들면 재미있을 것 같네요.
17/05/24 10:00
제 추측에는 알파고에 사용된 전형적인 강화학습의 비중이 커져서 더 그런게 아닐까 합니다.
전형적인 강화학습 알고리즘들은 승리, 패배 이렇게 단순한 방식으로 가중치가 강화됩니다. CNN의 지도학습과 몬테카를로스 시뮬레이션으로만 했다면 아마도 최적화된 수가 더 중요하니 이런 현상은 나오지 않았을것 같네요.
|