PGR21.com
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
Date 2019/08/23 17:36:04
Name 루트에리노
Subject 머신러닝 이야기 - 1. 딥러닝 이야기 첫번째
교통공학 이야기
------------------------

안녕하세요 루트에리노입니다. 요즘 박사 졸업논문 쓰느라 바쁜 듯 안 바쁜 시간들이 지속되고 있습니다. 이렇게 시간루팡을 해먹는 도중에 제가 요즘 쓰는 논문이 머신러닝 쪽이라, 머리도 좀 식힐 겸 머신러닝에 관한 글을 좀 써보고자 합니다.

머신러닝이니 AI니 딥러닝이니 뭔지 잘 아시는 분들도 있을거고, 잘 모르시는 분들도 있을거에요. 이번에 쓰는 글들의 목적은 이런 것의 핵심인 머신 러닝이 뭔지 별다른 전공지식 없이 설명하는 겁니다.

딥러닝에 대해 이젠 많이들 아시겠지만, 아직도 어려운 얘기들이 많은데 저처럼 직접 쓸 거 아니면 필요없는 얘기는 그냥 쳐내고 가도록 노력할게요.

1. 딥 러닝의 기반 - 회귀분석

자, 뭐 쉬운 얘기부터 해 봅시다. 여러분 모두 1차함수 아시죠? y=ax+b 형태로 정의되는...소위 말해 선형(linear) 함수입니다. 딥 러닝은 여기에서 부터 시작합니다. 세상에는 "회귀분석(regression)"이라는 기술이 있습니다.

IGmW0EE.png

위와 같이, 어떠한 점들의 집합에 가장 적합한 1차 함수를 찾아내는 기술이죠. 지금도 여전히 많이 쓰이는 기술입니다. 생각보다 세상의 많은 일들은 직선 하나로 잘 설명이 되기 때문에, 이런 회귀분석은 많은 경우에 사용됐습니다. 자 다시 말씀드리면, 이 1차 함수로 분류하는 것은 "직선"을 긋는 겁니다.

하지만 여러분이 아시다시피, 직선 하나로 설명 안 되는 일들이 너무나 많죠.

2. XOR문제에 대해

이제 여러분이 E스포츠팀의 열성팬이 됐다고 칩시다. 선수들의 오늘 성적에 따라 어떤 선수에겐 잘했다고 칭찬을, 어떤 선수에겐 앞으로 잘하라고 훈계를 해야겠네요. 여러분은 이제 댓글을 달아야 하는데, 공카에서는 선수들의 실명이 언급되면 안됩니다. 그럼 여러분은 이런 식으로 말하게 되겠죠.

"까만 티 입은 애들이 오늘 잘했고, 하얀 티 입은 애들은 더 잘해야겠다."

이걸 그래프로 표현하면 아래와 같습니다.

QzfEECw.png

좀더 복잡하게 가봅시다, 만약 하얀 티 입은 탱커만 못했다면? 이것도 줄 하나로 설명이 됩니다. 아래와 같은 형태가 되겠죠. "하얀 티 입은 탱커는 좀 더 잘해야겠다"는 다음과 같습니다.

kVyOFDJ.png

위 문제는 "OR 문제"와 동치입니다. OR문제가 뭐냐하면, x와 y중 딱 하나라도 O면 O인 문제를 말하는 거죠. 까만티이거나 딜러이면 잘했다, 이런 상황이라 or문제가 됩니다. 이처럼, 각 요인들을 딱 한번씩만 언급하면서 선수들을 구분할 수 있으면 이 문제는 직선 하나로 분류가 가능해집니다. 하지만 아래와 같은 상황이면 어떻게 될까요?

j3pFK25.png

네, 각 선수들의 특징을 한번씩만 언급해서는 이 문제는 풀 수 없습니다. 이 문제를 해결하는데 직선 하나로는 불가능하다는게 이미 증명이 되어 있습니다. 만약 이렇다면 곡선으로 분류하거나 직선이 두개 이상 있어야만 하죠. 예를 들어 "하얀티 입은 탱커랑(=직선1) 까만티 입은 딜러(=직선2)같은 식으로 말입니다.

THz0Ncp.png

이 문제를 XOR(배타적 논리합)문제라고 합니다. 이 단순한 문제가, 굉장히 오랫동안 수학자들과 공학자들을 괴롭히게 됩니다. 이게 왜 딥러닝과 관계가 있느냐, 계속 읽어보시죠.

3. 뇌세포를 따라해보면 되지 않을까! - 퍼셉트론

1957년, 프랭크 로젠블랫에 의해 그당시의 뇌 신경세포 모형을 기반으로 퍼셉트론이라는 것이 개발됩니다. 퍼셉트론은 아래와 같은 구조입니다.

lphfLxU.png

하나의 직선으로는 안되니까, 이직선 저직선 해서 합한다음에 특정 활성함수에 넣어서 그 값으로 판단하면 되지 않을까! 이걸로 분류문제를 풀어보자! 라는 시도였습니다. 그리고 이 퍼셉트론은 상당히 성공적이라 꽤나 큰 센세이션을 불러일으켰죠. 특히 이 퍼셉트론이 센세이녀설했던 가장 큰 이유는 결과값에 따라 가중치를 조절하면서 "학습이 된다"는 점이었습니다. 맞습니다, 머신으로 "러닝"을 할 수 있다는 것, 기계학습, 머신러닝이죠. 이는 상당히 고무적이었습니다. 한동안 퍼셉트론을 통해 인공지능의 붐이 일었구요. 이 퍼셉트론이 바로 현재의 인공신경망의 조상님 되시겠습니다.

Kltk018.jpg

마크1으로 구현된 퍼셉트론의 모습입니다. 당시는 이 전선줄들을 조정함으로서 뭐든 맞출 수 있다는 기대에 부풀었습니다.

하지만 이 퍼셉트론도 치타에서 벗어나지 못했습니다. 선형 함수를 열심히 더해봐야 어쨌든 다른 선형함수밖에 나오지 못하거든요. 따라서, 이 퍼셉트론도 XOR문제를 풀지 못했습니다. 결국 1969년 마빈 민스키 교수가 단층 퍼셉트론으로 XOR문제를 해결할 수 없음을 수학적으로 증명했습니다. 이로서 퍼셉트론이 가져온 인공지능의 봄이 끝났죠.

다만 마빈 민스키 교수는 퍼셉트론이 아닌 다층 퍼셉트론, 다시 말해 퍼셉트론을 여러 번 겹겹이 쌓아올린 모형으로는 XOR문제를 풀 수 있음을 증명했습니다. 다만, 그때까지 다층 퍼셉트론을 학습할 수 있는 알고리즘은 발견되지 않았습니다.
("No one on earth had found a viable way to train MLPs good enough to learn such simple functions.")

그리고, 이 다층 퍼셉트론은 다시 무서운 무기가 되어 인공지능의 2차 붐을 일으키게 됩니다.

4. 뇌세포 하나가 안되면, 뇌세포 여러개로 해보자 - 다층 퍼셉트론? 이거 가능해요?

다층 퍼셉트론이 왜 학습이 안되냐? 그림으로 설명드리겠습니다.

zhreEIm.png

이 그림은 굉장히 단순한 다층 퍼셉트론을 나타낸 겁니다.(Mohamed et al., 2015) 겨우 2층짜리에, 세포 개수도 1층에 4개, 2층에 5개 뿐이죠. 제가 지금 논문에 쓰고있는 게 층별로 5개씩 10층 쌓은 녀석이니 굉장히 단순합니다.

이걸 학습시킨다는 것의 의미는, 요 그림에 보시면 화살표들 있죠? 이 화살표들의 두께를 하나 하나 정해줘야 하는거죠. 이 단순한 모형에서도 저 화살표의 개수가 25개입니다. 즉, 세포 수가 늘어나면 늘어날수록 저 화살표의 개수도 미친듯이 늘어나게 됩니다. 저 화살표들을 딱 입력값과 출력값간의 관계만으로 조절을 한다니, 이건 누가 봐도 불가능하지 않을까요?

민스키 교수의 의견도 같았습니다. 야 이것만 되면 어떻게든 될텐데, 보니까 사람이 할 짓이 못된다. 이거 되겠냐? 라는 얘길 한거죠. 그동안 불탔던 인공지능 관련 여론은 짜게 식었습니다.

5. 되는데요? - 오차역전파(backpropagation)

이 인공지능의 겨울을 깨고 다시 한번 봄을 불러온 기술적 진보가 있었습니다. 바로 "오차역전차법"입니다. 오차역전파법은 수리적으로 이해하는데는 어느정도의 수학적 지식이 필요합니다만, 그런 거 다 필요없이 이렇게 이해하시면 됩니다.

"만약, 입력값으로부터 출력값까지의 계산 경로가 명확하다면, 입력값과 출력값의 관계만으로 모든 가중치와 출력값의 관계를 구할 수 있다"

그리고 다층 퍼셉트론은 입력값으로부터 출력값까지의 계산 경로가 명확합니다. 어? 맞습니다. 민스키 교수가 제안한 "사람이 할 짓이 못되는" 것이 이제 사람이 할 수 있는 일이 되어버렸습니다. 오차역전파법을 인공신경망에 적용하는 논문은 1986년에 등장했고, 이로 인해 신경망 알고리즘의 2차 붐이 시작됐습니다.

y7KnNm1.png

터미네이터가 자기 CPU가 신경망으로 되어있다고 할 정도였죠. 신경망으로 CPU를 만들다니, 대체 아키텍쳐를 어떻게 짰는지 상상도 안 가는 물건이네요. 근데 이 봄에도 곧 한계가 와버렸습니다.

6. 여러분 안녕히 계세요~ - 기울기 손실 문제(Vanishing Gradient Problem)

ur6inY9.jpg

위의 백 프로파게이션에 심각한 문제가 발생했습니다. 기울기 손실 문제라고 하는데요, 결국 오차 역전파법은 계산 경로를 따라 각 층에 필요한 값을 계산하는 건데요, 마치 우리가 장거리 달리기를 할때 처음엔 의욕적으로 뛰다가 좀 많이 뛰면 멘붕해서 걷게 되듯이 층이 많아질수록 작동을 잘 못하게 되는거죠.

인공신경망이 여러곳에 쓰임에 따라, 더욱 더 많은 층이 필요하게 됐고, 이러한 기울기 손실 문제는 치명적이었습니다. 또한 계산시간이 너무, 지나칠 정도로 길었던 것도 한몫 했습니다.

이로 인해, 뭐든지 할 수 있었다고 믿었던 인공신경망은 다시 2차 겨울을 맞게 됩니다.

그럼 이러한 2차 겨울을 어떻게 뚫고 부활했는가, 이건 다음 시간에 자세히 써보도록 하겠습니다!


통합규정 1.3 이용안내 인용

"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.
법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
19/08/23 17:43
수정 아이콘
그래서 치타랑 사람이랑 싸우면 누가 이깁니까?!
루트에리노
19/08/24 08:27
수정 아이콘
치타가 인실X를 시전합니다 크크
덴드로븀
19/08/23 17:49
수정 아이콘
아...않이 이렇게 끝내면 어뜨캅니까!
추천이 필요하십니까! 드렸습니다만?
다음편 언제 나오나요 ㅜㅜ 박사 졸업논문를 멈춰주세요...
루트에리노
19/08/24 08:29
수정 아이콘
않이 크크크크
얼른 박사자격으로 글을 써야 하는데 말이죠
애플주식좀살걸
19/08/23 18:09
수정 아이콘
번외까지 기대됩니다 :)
루트에리노
19/08/24 08:29
수정 아이콘
읽어주셔서 감사합니다!
너는나의헛개수
19/08/23 18:19
수정 아이콘
관심있는 분야였는데 댓 먼저 달구 천천히 읽어보겠습니다.
추천꾹
루트에리노
19/08/24 08:30
수정 아이콘
앗 감사합니다! 맘에 드셨길
홍승식
19/08/23 18:20
수정 아이콘
(대충 완벽히 이해했어 콘)
루트에리노
19/08/24 08:39
수정 아이콘
크크크 읽어주셔서 감사합니다
19/08/23 18:24
수정 아이콘
굉장히 쉬운 비유네요. 나중에 강의할 때 써먹를게요 크크
루트에리노
19/08/24 08:39
수정 아이콘
앗 강의하시는 분이 보셨다니 부끄럽군요
19/08/23 18:41
수정 아이콘
다음편이 필요합니다! 크크
루트에리노
19/08/24 08:40
수정 아이콘
시간 되는데로 써보겠습니다~
잠이온다
19/08/23 18:49
수정 아이콘
완벽히 이해했어!(하나도 이해 못함)
루트에리노
19/08/24 08:42
수정 아이콘
이해했다고 믿으면 이해가 된 겁니다
알파고님을 믿으십시오 가정에 평안이 옵니다!
사업드래군
19/08/23 19:01
수정 아이콘
아 완벽하게 이해했네요~~!!!. 응?
루트에리노
19/08/24 08:43
수정 아이콘
아마 이해하셨을 겁니다 크크크
그렇게 믿으시면 이해한거에요
retrieval
19/08/23 19:11
수정 아이콘
지금이 인공지능 봄인거죠? 그러면 이것도 언젠간 겨울을 맞이하려나요
루트에리노
19/08/24 08:56
수정 아이콘
음...제 개인적인 의견으로는 아닐 것 같습니다. 겨울이 오기엔 이미 우리 실생활에 너무 깊숙이 파고들었어요.

이미 우리는 자기도 모르는 새에 하루에 몇번씩이나 인공지능 인터페이스를 마주하고 있습니다. 이 피지알에도 구글애드 있죠? 저것도 인공지능 인터페이스에요.
MyBubble
19/08/23 19:25
수정 아이콘
관심분야지만 관계자가 없어서 항상 궁금한 게 있었는데요...
학계 내부에서는 과연 수년내에 실업자를 유의미하게 늘릴만큼 기술이 발전되었다고 보고 있나요?
자율주행 분야는 눈에 보이게 발전도 있는거 같고, 이에 따른 꽤 파급효과가 있어보이는데,
아직 자율주행말고는 딱히 다른 분야는 그정도 파급력이 있는 기술은 보이지 않긴 해서요.
잿빛토끼
19/08/23 19:47
수정 아이콘
제가 알기론 이제 텔레마케터는 대부분 대체될 것이라고 보여요. 이제 음성인식도 꽤나 올라왔고. 서비스 관리차원에서의 응대도 대부분 ai를 통해 해결되고 있구요.
카뱅만 봐도... 1차 상담은 다 머신이 하고 있거든요.
19/08/23 20:11
수정 아이콘
자연어처리만 해도 영상쪽 만큼은 아니라도 많이 발전했죠.
MyBubble
19/08/23 20:16
수정 아이콘
많이 발전한 거랑 사람을 대체할 것인가는 차이가 크다고 생각합니다. 예를 들어 구글 번역이 꽤 좋아졌지만, 그거 때문에 영어공부가 필요없다거나 통역이 필요없을 것 같지는 않거든요. 사람 수준을 100이라고 보면, 50->80까지는 발전시키는 건 비교적 쉽지만, 80->90으로 올리는 건 그것 보다 더 힙들고, 90->95는 훨씬 더 힘들어진다고 보거든요. 그래서, 오오~~ 좋아졌네 싶은 정도로는 안되는데, 제가 기사로 접하는 소식만 가지고는 아직 사람 대체는 많이 부족하지 않나 싶어요. 하지만, 전공자분들은 더 많은 정보가 있을테니, 그 분들의 의견이 궁금합니다.
19/08/23 21:42
수정 아이콘
사람을 완전히 대체하는 건 무척 어려운 일이고 아직도 허들이 많습니다. 거기에 머신러닝의 목적이 거기에 있지도 않다고 생각합니다. 사람을 잘 보조하여 시간과 인력을 아끼게 하고 사람이 하기 어려운 부분을 해결 가능하게 하는게 인공지능 더나아가 모든 기술의 지향점이죠.
19/08/23 21:52
수정 아이콘
자연어도 이미 많이 활용되고 있죠. 챗봇, 검색, 추천 등등 어떤 부분은 사람보다 더 명쾌하고 빠르게 결과를 내기도 하고요.
조금먹기
19/08/23 21:31
수정 아이콘
저도 이쪽 분야에 일하기는 해서, 첨언을 하자면
1. 기술 발전을 한다고 실업자가 늘어난다는 통계는 아직 없습니다. 오히려 반대로 기술 발전을 하면(로봇이 늘어나면) 취업률이 늘어난 통계는 있는 걸로 압니다. (https://youtu.be/10ZPT9klgZw)

2. 지금 당장 머신러닝이 도입하기 용이한 분야는 기존의 알고리즘(약간의 통계적 방법)으로도 어느 정도 돌아가는 분야인데, 이 분야는 원래 자동화가 되던게, 더 좋은 성능의 방법론으로 대체되는 정도라서 그 학계나 산업계에서 큰 변화이지만, 이게 일반인에게 와닿기는 힘들다고 봅니다. 이런 분야는 추천 시스템 같은거인데, 구글 유튜브에서 조금 덜 중요한거 추천한다고 사람들이 항의를 하는건 아니고, 워낙 많은 사람이 요청을 하고 기대효과가 크니 적극적으로 성능을 올리는데, 머신러닝이 도입됩니다.

3. 영상/음성/NLP 영역의 성능은 딥 러닝 도입 전과 후는 차원이 다를 정도인데, 사람에 비견되는 정도가 되어도 막상 대체할려고 하면 힘듭니다. 그 분야가 조금만 틀려도 문제가 안 되야 되고(의료 진단에서 오류가 있으면 안 되겟죠), 사람을 대체를 한다고 하면 그 머신러닝하는 개발자들도 부담이고, 받아들이는 입장에서도 별로이고, 머신러닝을 하는 회사들 정도면 한두푼 아까운 회사도 아니여서 단순히 인건비 줄이려는 목적으로 머신 러닝을 도입할려는 건 아닙니다. 기존의 사람들이 귀찮아하는 걸 대신해주고, 그 시간에 더 중요한거 하세요 이 느낌으로 합니다. 그리고 산업에 직접적으로 도입되는건 아직은 좀 멀고 3~5년정도 걸릴꺼 같습니다.
-안군-
19/08/23 22:29
수정 아이콘
구글번역만 해도 몇년전하고 비교해보면 완전 상전벽해죠;;
루트에리노
19/08/24 08:51
수정 아이콘
음...제 답변을 드리자면, 기술 발전은 이미 어마어마하게 되어 있습니다. 거의 상전벽해에 가깝게 되어 있는 상황인데, 이게 실업자를 늘릴 지는 모르겠습니다.

자율주행차의 경우 제가 전에 쓴 글도 있지만, 말씀대로
실업자를 유의미하게 늘릴텐데 아직 다른 분야에 대해서는 저도 예상이 가지 않네요. 각각 세부적인 분야의 종사자들은 많은 우려를 표하고 있긴 합니다.

확실한건 단순작업들은 인공지능 이전에도 이미 많은 부분이 대체가 이미 되어있는 상황입니다. 이게 실업자 증가로 이어지진 않았구요. 또한 어떤 분야를 인공지능으로 대체하는것은 생각보다 법적 위험이 따릅니다.
잿빛토끼
19/08/23 19:48
수정 아이콘
결국은 미분과 컴퓨터 연산능력 발전의 승리!!
루트에리노
19/08/24 08:53
수정 아이콘
힘의 차이가 느껴지십니까?
명란이
19/08/23 19:52
수정 아이콘
신경망이라는게 굉장히 오래됐네요.
루트에리노
19/08/24 08:57
수정 아이콘
예 저도 공부하기 전엔 21세기에 개발된 기술일줄 알았어요
오클랜드에이스
19/08/23 19:54
수정 아이콘
우왓 저도 요즘 공부하고 있는 분야인데 쉽게 설명해주셔서 좋습니다!
루트에리노
19/08/24 08:58
수정 아이콘
감사합니다~ 도움 되었으면 좋겠네요
aDayInTheLife
19/08/23 20:03
수정 아이콘
우왕 어렵고 재밌고 어렵고 유익하고 어려운 글이다!
루트에리노
19/08/24 08:58
수정 아이콘
알쓸신잡류 지식입니다 크크
Lord Be Goja
19/08/23 20:08
수정 아이콘
(수정됨) 사회적현상에 대해 잘 아시는거같아 이공계박사님(진)이실줄은 몰랐는데..
감사합니다 잘봤어요.
생명체의 뉴런이 일종의 초저클럭이지만 수조개의 멀티코어라고 본거 같은데
현재 굴리는 컴퓨터랑은 구조가 많이 다르다보니 모방도 쉽지 않겠죠..
알파고도 전성비로는 이세돌선수에게 참패를 했으니까요.
닉네임을바꾸다
19/08/23 20:13
수정 아이콘
전성비 클클...
루트에리노
19/08/24 09:03
수정 아이콘
교통공학에 종사하고 있는데, 저희는 가끔 SSCI가 나올 정도로 사회과학과 밀접합니다. 어느정도는 관련 교육을 받고 있습니다.

전성비는 크크 뭐 계산하는게 무의미할 정도로 말도 안되는 수준이지만, 인공지능의 가장 큰 한계는 생물체 두뇌가 가진 범용성의 발끝에도 못미친다는 점이죠.

인류의 두뇌와 같은 정신나간 범용성을 가진 강인공지능이 언제 어디서 튀어나올지 궁금합니다. 저도 가끔 운전하면서 음악듣고 논문생각 하다보면 인류 두뇌의 범용성에 대해 정말 대단하다고 느낍니다.
-안군-
19/08/23 20:12
수정 아이콘
스포: 거-업-나 빠른 컴퓨팅으로 극뽁!!
루트에리노
19/08/24 09:04
수정 아이콘
않이 스포 자제좀요 크크
Phlying Dolphin
19/08/23 20:18
수정 아이콘
처음으로 Tensorflow로 ANN을 써 봤는데, 생각보다 쉽게 회귀를 할 수 있더군요. 저도 처음에는 뭐가 뭔 소린지 몰라서 한참 걸렸지만, 정말 그렇게 어렵지 않은 내용이니 조금이라도 다수의 데이터를 다루시는 분들은 꼭 사용해 보시기 바랍니다. 다만 아무래도 현재의 CNN은 영상/음성인식 같은 분야에 더 적합하고, Training data set이 적은 분야는 사용하기 어렵겠더군요.
루트에리노
19/08/24 09:06
수정 아이콘
저는 텐서플로 쓰다가 수명이 줄 것 같아서 케라스와 파이토치로 갈아탔습니다 크크
-안군-
19/08/24 12:09
수정 아이콘
이번에 텐서플로가 업그레이드 돼면서 케라스를 서브모듈로 흡수했습니다.
그래서 tensorflow.keras.rnn() 같은 끔찍한 혼종이...
루트에리노
19/08/24 13:22
수정 아이콘
아 그거 이유는 모르겠는데 바닐라 케라스보다 연산속도가 느리더라구요...

케라스도 텐서플로우 백엔드라서 텐서플로우로 부르면 더 빠를 줄 알았는데 ㅠ
-안군-
19/08/24 13:45
수정 아이콘
아 그거... 세팅하기 나름이더라고요. 특히 GPU나 MKL 같은거요. 잘만 하면 러닝 하나 돌리는데 GPU 98%, CPU 98% 라는 아름다운 수치를 보실 수 있습니다. 엔비디아 타이탄에 제온에서요(...)
루트에리노
19/08/24 14:11
수정 아이콘
그런 아름다운 하드웨어가 읎읍니다 ㅠㅠ
aws 쓰는데 cpu온리에요
-안군-
19/08/24 14:15
수정 아이콘
(수정됨) 저런... 구글콜라보라도 써보세요 ㅠㅠ
근데 진짜 딥러닝쪽은 하드웨어빨이 너무 심한게, 제가 게임 개발용으로 쓰는 컴에서 100스텝 돌리는데 10분 걸리던게, 타이탄에 제온에서 돌리니까 15초만에 끝나더라고요;;
제 작업용 PC도 언리얼 엔진 에디터 짱짱하게 돌리는데도 전혀 무리가 없을 정도로 스펙이 좋은데;;
Serapium
19/08/23 20:48
수정 아이콘
스포 : Resnet?
크크크 잘보고갑니다
루트에리노
19/08/24 09:06
수정 아이콘
어휴 오늘 스포가 많네요
19/08/23 21:26
수정 아이콘
이걸로 오늘 졸업한 사람입니다 재미있게 잘 읽고 갑니다 크크
루트에리노
19/08/24 09:07
수정 아이콘
이야 축하드립니다!
저도 얼른 졸업 좀 ㅠㅠ
DownTeamDown
19/08/23 21:29
수정 아이콘
사실 이제 인공지능이 사람을 대체해서 할 수 있는일도 머지 않은것 같습니다만은
제가 그동안 많이 본것이긴한데 인공지능의 역할이 원활하게 돌아가기 위해서는
인공지능의 능력도 중요하지만 사용자 혹은 서비스 받는사람의 능력 내지는 적응력에 따라
결과가 달라지는것 같기도 한데 그것에 대해서는 혹시 의견이 있으신지 궁금합니다.
루트에리노
19/08/24 09:13
수정 아이콘
인터페이스는 항상 중요한 이슈죠

말씀하신 사항은 항상 개발자들을 골치아프게 만드는 일입니다. 결국 인터페이스의 최종적 목적은 사용자의 숙련도에 적게 영향을 받으면서 최대의 가용성을 이끌어 내는건데, 인공지능은 아직 일반 사용자들이 이것과 직접 소통하는 내용은 발전이 적은 편입니다.(빅스비, 알렉사 같은 것들 정도죠.) 더 많은 발전이 있어야겠죠.

향후 더욱 발전한다면 이런 고민이 필요없이 범용적으로 손쉬운 사용이 가능할거라 생각합니다. 예를들어, 엑셀 함수같은 형태로 쓸수 있다든지요.

물론 적응력에 따른 차이는 어느정도는 어쩔 수 없습니다. 인공지능이 아니라도, 사람마다 운전 숙련도가 다른것과 비슷하게요.
조금먹기
19/08/23 21:41
수정 아이콘
좋은 글 감사합니다
제가 일하는 분야가 나오니 반갑네요.
과연 제프리 힌튼 이름이 나올지 궁금하네요
루트에리노
19/08/24 09:13
수정 아이콘
그분 이름을 언급하지 않기가 더 어려울듯 합니다
읽어주셔서 감사합니다!
19/08/23 23:16
수정 아이콘
아 재미있게 읽었습니다.
루트에리노
19/08/24 09:15
수정 아이콘
예 감사합니다!
세크리
19/08/24 04:04
수정 아이콘
머신 러닝이 지금까지 가장 큰 성과를 보여준 분야는 CNN 을 필두로 한 discriminative learning 이지만, 개인적으로는 generative learning이 발전하면 정말 굉장할 수 있겠다는 생각을 자주 합니다. 이미 GAN을 포함해서 작동 잘 하는 모델들이 있지만, 이론적인 이해가 현격히 부족하기 때문에 좀만 breakthrough 가 있으면 정말 상상도 못하던 일들이 가능할 것 같습니다.
루트에리노
19/08/24 09:21
수정 아이콘
GAN은 학술적으로 상당한 의미가 있는 접근법이죠. 확실히 인공지능에 대한 개발이라는 측면에서는 기존의 틀을 바꾸는 식의 접근이 의미가 크다는 생각이 듭니다.
-안군-
19/08/24 14:23
수정 아이콘
아직까지의 딥러닝은 단순하게 말하자면 행렬 to 행렬 모델이라 사용분야가 약간 아쉼죠. 로직 to 로직 이 가능한 모델이 나올수만 있다면 진짜 혁명적일 것 같은데 말입니다. 실제 사람의 학습방식은 후자에 가깝잖아요.
어차피 로직이라는 것도 바이트 덩어리인지라 방법이 분명 있긴 할 것 같은데, 대략 아이디어는 있어도 직접 만들어낼만한 역량은 안돼서;; 구글님이 다 해주실거야... ㅠㅠ
19/08/24 14:04
수정 아이콘
감사합니다. 다음 글도 빨리 크크크크
루트에리노
19/08/24 15:19
수정 아이콘
시간 되는대로 써보겠습니다~
스주니
19/08/24 14:27
수정 아이콘
정말 이해하기 쉽게 잘 쓰셨어요. 수업에 초정하고 싶어요
루트에리노
19/08/24 15:18
수정 아이콘
어이구 저는 아직 허접한 연구자에 지나지 않습니다 감사합니다
19/08/24 15:36
수정 아이콘
좋은 글 잘 읽었습니다. 이해가 잘되네요~ 안그래도 필요했는데 감사합니다.
혹시 머신러닝을 공부하려하는데 가이드 라인을 추천해주실 수 있으신가요? 물리학과 졸업생이구요. 2012-13년에 NN에 대한 기본 개념만 살짝 배웠습니다.
루트에리노
19/08/25 12:10
수정 아이콘
언어는 파이썬이 가장 보편적이고, 하고싶은 분야가 이미지쪽인지 아님 데이터쪽인지에 따라 조금씩 다릅니다.

그리고 머신러닝에는 뉴럴넷 말고도 많아요~ 어떤 분야를 원하시나요?
19/08/25 12:25
수정 아이콘
언어는 파이썬, c 사용할 줄 알구요. 다른 언어 배우는 것에도 거부감은 없습니다.

제가 하려는게 사용자 기반의 데이터로 그 사람의 선호도를 파악하는 것을 만드려고 해요. 정확히는 사용자가 맛을 평가하면 그 평가 데이터를 기반으로 선호하는 맛이나 레시피를 추천해주는 뭐 그런 식입니다.

선호도 파악에 대한 학습기법이 있다면 추천도 부탁드릴게요. 너무 감이 안잡히네요.
루트에리노
19/08/25 13:31
수정 아이콘
이런 경우엔 통째로 딥러닝을 하기엔 좀 어려움이 있어보이네요.

사람들의 맛 평가와 레시피 사이에 앞뒤가 연결이 되어있는...소위 말해 라벨링이 되어있는 데이터는 일단 없을것 같아서요

처음엔 맛평가와 선호맛, 레시피를 특정한 지정 룰을 통해 연결하고, 여기에 대한 사용자들의 선호를 받아서 학습의 베이스 자료로 써보시는건 어떨까요.

선호도 파악이라면 강화학습이 어떨까 싶긴 한데,이것도 일단 사용자들이 이게 맞다, 틀리다 하고 선호를 표현해 줘야 합니다.

어떤 자료에 대해 정해져 있는 모형이 있는게 아니라서, 어떤 목적에 맞는 모형을 찾으시려면 일단 기본적으로 여러 모형에 대해 공부해 보시는 게 좋을 것 같아요.

공부하는 방법에 대해서는요, 만약 현재 관련업종에 있으셔서 관련데이터를 구할 수 있는 게 아니시라면, 일단은 범용데이터들(MNIST 등 기본적으로 제공되는 샘플 데이터들)을 이용해 최대한 원하는 시나리오들에 근접한 내용을 짜 보시면 좋을 듯 합니다. 그리고 사용하시는 라이브러리에 있는 모형들로 이것들을 풀어보시면서 본인에게 맞는 모형을 찾아보세요.

나중에 가면 본인이 모형을 커스텀할 수도 있습니다.
19/08/25 20:50
수정 아이콘
상세한 답변 감사드립니다.
그냥 멍하니 고민만 하고 있었는데 일단 말씀해주신 자료들 기반으로 공부를 좀 해봐야겠네요. 입력/출력 데이터부터 정의하고 어떤 형태로 매핑하는 것이 좋을지를 좀 고민해봐야겠습니다.
제가 관련된 지식이 부족해 정확하게 원하는 그림을 설명 못드렸는데도 많은 부분에 대해서 말씀해주셔서 감사합니다.

혹시 나중에라도 제가 어느 정도 공부를 해서 정리가 되면 또 여쭤봐도 될까요?
루트에리노
19/08/26 07:54
수정 아이콘
예 제가 대답할만한 능력이 되는 한에선 답변드릴게요

근데 저도 허접한 연구자1이라 한계가 있을듯 합니다 ㅠㅠ
19/08/24 18:14
수정 아이콘
재미있게 잘 읽었습니다! 다음 글이 벌써 기대가 되네요. 특히 다른 분들이 말씀처럼 기본 개념을 이해하기 정말 쉽게 써 주셨네요! ML 관련 이야기를 쉽게 해야 할 일이 있어 이것저것 알아보는 중이었는데 많은 도움이 되었습니다.
루트에리노
19/08/25 12:11
수정 아이콘
읽어주셔서 감사합니다!
19/08/25 00:00
수정 아이콘
오오 잘 읽었습니다!!
루트에리노
19/08/25 12:11
수정 아이콘
감사합니다!
므라노
19/08/25 17:06
수정 아이콘
재밌게 잘 읽었습니다. 한참 머신러닝에 관심 생겼을 때 머신러닝은 코딩이고 뭐고가 아니고 그냥 수학, 통계학 그 자체라고 역설하시던 현직자 분이 생각나네요.

그 후로 통계쪽에 흥미도 생겼고 본전공이랑도 땔 수 없는 관계라 복전할까 고민하면서 이래저래 찾아보고 있는 차에 흥미롭게 잘 봤습니다!
다음 화도 기대 중입니다!
루트에리노
19/08/25 17:08
수정 아이콘
읽어주셔서 감사합니다!
원더보이
19/08/26 14:08
수정 아이콘
재미있게 잘 읽었습니다.
혹시 이쪽분야로 읽어볼만한 교양도서가 있나요?
루트에리노
19/08/26 14:57
수정 아이콘
감사합니다. 딥 러닝 관련 책의 경우 교양도서는 별로 없고 거의 실전쪽입니다. 보통 코딩 위주죠.
예전에 찾아봤던 책들 중에 머신러닝에 관한 책을 봤었는데, 제가 직접 보진 못해서 추천을 드릴 수가 없군요 ㅠㅠ
목록 삭게로! 맨위로
번호 제목 이름 날짜 조회 추천
101270 사회경제적비용 : 음주 > 비만 > 흡연 [44] VictoryFood7312 24/04/12 7312 4
101268 북한에서 욕먹는 보여주기식 선전 [49] 隱患9649 24/04/12 9649 3
101267 웹툰 추천 이계 검왕 생존기입니다. [43] 바이바이배드맨7449 24/04/12 7449 4
101266 원인 불명의 고양이 신경·근육병증 다수 발생...동물보호자 관심 및 주의 필요 [62] Pikachu11667 24/04/12 11667 3
101265 [강스포] 눈물을 마시는 새 고이(考異) - 암각문을 고친 여행자는 누구인가 (2) [11] meson3346 24/04/11 3346 4
101264 [강스포] 눈물을 마시는 새 고이(考異) - 암각문을 고친 여행자는 누구인가 (1) [4] meson5363 24/04/11 5363 3
101263 이제는 한반도 통일을 아예 포기해버린듯한 북한 [108] 보리야밥먹자15531 24/04/11 15531 4
101262 창작과 시샘.(잡담) [4] aDayInTheLife3659 24/04/10 3659 1
101261 읽을 신문과 기사를 정하는 기준 [10] 오후2시3870 24/04/10 3870 8
101260 자동차 전용도로에 승객 내려준 택시기사 징역형 [45] VictoryFood7735 24/04/10 7735 5
101258 시흥의 열두 딸들 - 아낌없이 주는 시흥의 역사 (7) [5] 계층방정3046 24/04/10 3046 7
101256 [약스포] 기생수: 더 그레이 감상평 [21] Reignwolf3030 24/04/10 3030 2
101255 저희 취미는 연기(더빙)입니다. [7] Neuromancer2853 24/04/10 2853 11
101254 알리익스프레스발 CPU 대란. 여러분은 무사하십니까 [56] SAS Tony Parker 9311 24/04/10 9311 3
101253 [뻘소리] 언어에 대한 느낌? [40] 사람되고싶다4176 24/04/09 4176 13
101252 삼성 갤럭시 One UI 음성인식 ( Speech to text ) 을 이용한 글쓰기 [44] 겨울삼각형5177 24/04/09 5177 5
101250 일식이 진행중입니다.(종료) [11] Dowhatyoucan't6838 24/04/09 6838 0
101249 동방프로젝트 오케스트라 콘서트가 한국에서 열립니다 [20] Regentag4923 24/04/08 4923 0
101248 뉴욕타임스 2.25. 일자 기사 번역(화성탐사 모의 실험) [4] 오후2시3767 24/04/08 3767 5
101247 루머: 갤럭시 Z 폴드 FE, 갤럭시 Z 플립 FE 스냅드래곤 7s Gen 2 탑재 [42] SAS Tony Parker 8646 24/04/08 8646 1
101246 인류의 미래를 여는 PGR러! [30] 隱患7463 24/04/07 7463 3
101244 [강스포] 눈물을 마시는 새 고이(考異) - 나늬의 의미 [4] meson5055 24/04/07 5055 1
101243 2000년대 이전의 도서관에 관한 이야기 [54] Story7094 24/04/07 7094 16
목록 이전 다음
댓글

+ : 최근 1시간내에 달린 댓글
+ : 최근 2시간내에 달린 댓글
맨 위로