'2017/11/05'에 해당되는 글 2건

  1. 2017.11.05 Law of Accelerating Returns
  2. 2017.11.05 시장 재구현(시뮬레이션)을 위한 알고리즘 7
아이디어, 알고리즘2017. 11. 5. 11:32

 

 

미래학자인 Ray Kurzweil은 인류와 문명 그리고 산업 전반에 걸쳐 갈수록 발전의 속도가 높아지는 Law of Accelerating Returns에 대해 얘기 했습니다.

 

 

인간은 발달된 문명을 보존함과 동시에 지속 발전할 수 있는 능력이 강하기 때문입니다.

 

 

발전할 수 있는 능력이 강한것은 더욱 진화된 상태이기도 합니다.

 

 

2천년전의 사람들이 찾아낸 수학의 법칙과 정의 그리고 풀어낸 수학 문제를 보고 있노라면 깜짝 놀랄법도 하지만 발전이라는 것은 단순히 수학문제를 잘 푼다고 가능한것이 아니라 수학, 과학, 물리학, 화학 등의 여러 분야가 골고루 발전하고 또 그것이 유기적으로 잘 결합되어야만 가능하기에 오래전 시대를 살았던 사람들이 일부분에 특화되어 더 지식이 많거나 똑똑 했던 경우가 있더라도 발전된 사회를 살아갈 수 없는 이유입니다.

 

 

물론 과거를 살던 사람들이 무언가를 계속 연구하고 발전 시켜왔기 때문에 그 후대의 사람들이 바통을 이어받아 진화시킬 수 있던점도 있습니다.

 

 

필자가 여기에서 얘기 하고자 하는 것은 시간이 가면 갈수록 발전의 속도에 가속도가 붙어 점점 더 빨라지게 된다는 것인데요.

 

 

왜 이런 이야기를 하느냐하면,

현재에 머무르고 있기만 한다면 HTS나 MTS를 통한 수동 매매는 갈수록 승산이 줄어들 수 밖에 없다고 생각하기 때문입니다.

 

 

2016년 AlphaGo(Lee Version)와 이세돌 9단에 의해 펼쳐진 세기의 바둑 대결은 인간과 인공지능이 바둑판을 앞에 두고 대결하는 모습을 봤습니다.

이때 사용된 알파고를 두고 후에 AlphaGo Lee Version 이라고 부르는데요.

 

 

이세돌 9단이 최선을 다해 싸웠지만 결국 AlphaGo 앞에 무릎을 꿇을 수 밖에 없었습니다.

 

 

최종 스코어는 4승 1패로 AlphaGo의 압승이라고 표현되기도 했고 각종 매체에서는 로봇을 이긴 마지막 인간으로 표현하기도 했으며 다가올 가까운 미래에는 인간이 로봇에 의해 지배 당하게 될 것이라는 표현까지 등장했습니다.

 

 

이후 불과 몇달도 채 경과하지 않은 시점에서 엄청난 성능으로 무장한 AlphaGo Zero Version이 등장했고 구글 딥마인드에서 자체적으로 AlphaGo Zero  VS  AlphaGo Lee 대결을 치뤘는데요.

 

 

결과는 100대 0으로 AlphaGo Zero의 압승이었습니다.

 

 

AlphaGo Lee가 만들어지기까지 수 많은 시간이 소요되었지만 이를 이긴 AlphaGo Zero는 그리 오랜 시간이 걸리지 않았습니다.

 

 

10년전에도 손매매로, 현재도 손매매로, 10년후에도 손매매로?

 

 

갈수록 점점 승산이 없는 게임이라고 생각합니다.

 

 

필자가 알고리즘 자동매매 시스템에 집중할 수 밖에 없는 이유이자 동기부여이며 생존을 위한 선택입니다.

 

 

지금 열심히 노력해서 삼각 피라미드 구조의 먹이사슬 상층부에 오르지 못하면 다시는 오를 수 있는 기회가 없을테니 말입니다.

 

 

최근 1~2년 사이 "로봇 어드바이저"라는 서비스를 각 증권사마다 개발하고 있고 중국, 미국, 영국, 일본 등 전세계 각지에서 인공지능(AI) 자동매매 시스템을 개발에 박차를 가하고 있기 때문에 머지않아 시장의 여러 흐름들이 과거와 제법 많이 달라져 있을것으로 생각됩니다.

 

 

게중에는 시장 평균 수익률 대비 성과가 아주 떨어지는 인공지능 모델도 있겠지만 포기하지 않고 끊임없이 발전에 발전을 거듭한다면 성과는 확연히 개선될 수 있을것입니다.

 

 

실제 국제 연구진이 개발한 인공지능 모델의 경우에 과거 23년간의 데이터에 시뮬레이션을 해보니 연간 수익률이 73%에 이릅니다.

 

 

실제 주식투자 대회에서 약 2~3개월동안 수백%의 수익을 내는 사람들이 있기도 하고 또 아무리 손매매라 하더라도 개인의 경우에는 가능할 수 있는 수치이지만 큰 집단이나 기관급에서는 시장 평균 수익률(약 9%)이 평가 기준일 정도로 낮은 정도의 기대 수익을 8배나 초과하는 수익을 인공지능을 통해 거둘 수 있다는것입니다.

 

 

인공지능 알고리즘 자동매매 시스템을 이해하고 개발하는 것을 더 이상 늦춰서는 이 분야에 대해서 만큼은 개인 투자자들에게 암울한 미래만을 보여줄지도 모르겠습니다.

 

 

필자는 이미 인공지능 알고리즘 자동매매를 하고 있으니 한편으로는 다행이긴 합니다만 열심히 연구하고 업그레이드 하지 않으면 안되겠지요.

 

Posted by 투자의神
프로그래밍 with C#2017. 11. 5. 09:02

 

 

제목에 시장 재구현과 시뮬레이션을 동의어인 것으로 표현했습니다.

 

 

시뮬레이션을 조금 더 자세히 알아보기 위해 시장 재구현이라는 말을 제 임의로 만든 말입니다.

 

 

우선, 시뮬레이션에 대해 알아 보겠습니다.

 

 

(구글 검색 키워드로 "simulation 뜻' 이라고 입력한 결과)

 

물리적 또는 추상적인 시스템을 모델로 표현하고, 그 모델을 사용해서 실험을 하는 일.

실제로 모형을 만들어 하는 물리적 시뮬레이션과, 수학적 모델을 컴퓨터상에서 다루는 논리적 시뮬레이션이 있음.

공학상의 설계 및 사회 현상 분석 등에 쓰이는데, 방대한 수치 계산을 고속으로 처리하는 실시간(實時間)의 시뮬레이션은 컴퓨터의 이용으로 비로소 가능해졌음.

 

 

물리적인 구현과 논리적인 구현이 있다고 되어 있는데 필자가 하고 있고 또한 독자분들도 하고 계신것이 논리적인 구현입니다.

 

 

투자를 하기에 앞서 수립한 가상의 조건값(예. A하면 B한다. 그러나 C하면 D한다.)이 얼마만큼의 효용성이 있는지

즉, 성과를 낼 수 있는 것인지 검증 해보기 위한 방법인데 물리적인 시간을 거스를 수 없으므로 당시의 상황을 가정하여 생성하는 논리적 프로세서라고 이해 하시면 조금 더 쉽습니다.

 

 

HTS, MTS 등으로 차트를 보고 복기 해보는 과정,

검색식 등을 이용하여 종목들을 찾아보거나 동일한 수익 모델을 기준으로 각각의 투자 성과가 어떠했으리라 추정 해보는 모든 과정이 논리적 시뮬레이션입니다.

 

 

어때요?

참 쉽죠?

 

 

이 시뮬레이션을 저는 시장 재구현이라고 정의 합니다.

 

 

시장을 재 구현하기 위해서 우리가 고려해야 될 요소들이 생각보다 상당히 복잡 다양한데요.

 

 

그러기 위해서는 당시의 모든 시장 데이터들을 확보하고 있어야 하며 시계열 형태로 배치되어 있어야 합니다.

 

 

제가 시장에서 수신받은 데이터를 데이터베이스 서버에 실시간으로 저장하며 데이터들을 수집하고 있는데 그것은 시장 전부의 데이터는 아니고 관심이 있는 특정 부분 위주의 데이터들이고 그 양이 1거래일간 약 2천만건에 이릅니다.

 

 

그리고 확보된 데이터가 수십억건이 넘는데요.

 

 

 

이 데이터들을 안전하게 보관하고 데이터의 이중화, 백업의 이중화가 반드시 필요하며 또 이러한 데이터들을 시장 재구현이 필요할 때마다 빠르게 불러오고 처리할 수 있는 컴퓨팅 머신(Computing Machine)이 필요하기 때문에 일반적인 경우에는 비용 등의 문제로 사실상 불가능합니다.

 

 

소수의 사람만 가능합니다.

 

 

물론 데이터들이 날아가도 크게 신경쓰지 않고 속도도 고려치 않는다면 아마도 몇십만원짜리 PC로도 가능하겠지만 소실되고 나면 다시는 절대!! 구할 수 없는 데이터들을 그렇게 보관한다는게 말이 안되는것이죠.

 

 

일반적인 접근성이 떨어지는 "전문(specialty) 데이터"이기 때문에 그에 맞는 취급을 해줘야 할 필요성이 있습니다.

 

 

시계열 데이터 기반으로 시뮬레이션 하고자 하는 대상에 맞는 데이터를 확보하고 코딩을 시작해야 합니다.

 

 

시계열 데이터를 기본으로 두고 하나씩 순서대로 살펴보며 가상의 조건값에 대한 이벤트를 감지하여 처리 하는게 필요한데 이 부분에서 수행시간을 고려하지 않을 수 없습니다.

 

 

시뮬레이션 하려는 데이터의 갯수가 10000개이고 하나의 데이터를 처리 하는데 1초가 소요된다면 단순하게 보면 10000초만에 끝날 것 같지만 각자가 살펴보려는 매매 로직의 처리 특성이 O(N 3 )이라면 어떻게 될까요?

 

 

무작위로 코딩 해버리면 O(N 3 )은 1억을 초과 해버리기에 처참한 결과에 좌절하게 될지도 모릅니다.

(10000의 제곱은 1억이고, 세제곱은 1조입니다)

 

 

O(N 2)도 상당히 많은 양이죠.

 

 

O(N log N)에 10000을 대입하면 1억에 훨씬 미치지 못합니다.

 

 

매매 로직도 중요하지만 시장 재구현을 위해 시계열 데이터를 처리하고 매매 로직을 대입하는 과정의 수행 속도가 더뎌질수록 그 만큼 기회 비용의 상실됩니다.

시간은 곧 돈이니까요.

 

 

이제 갓 입문한 분들이 이처럼 주먹구구식으로 코딩하여 시장 재구현을 시도 하지만 시간이 제법 많이 소요되더라도 보유한 데이터가 적기 때문에 주먹구구식으로 대충 처리하려고 하는데 필자와 같이 셀 수 없을 정도의 양을 보유하고 있는 시점에 이르게 되면 주먹구구식으로는 평생이 걸려도 하나의 시뮬레이션이 끝나지 않을수도 있습니다.

 

 

시계열 데이터의 수행 횟수의 예측치가 기준에 가까운 O(N 2) 알고리즘의 경우 시간 복잡도 외에도 다른 요소들을 참조해 적당한 시간내에 시뮬레이션이 완료될 수 있을지 판단해야 하는데 이 때 참고 할 수 있는 요소들은 다음과 같습니다.

 

 

1. 시간 복잡도가 시뮬레이션 프로그램의 실행 속도를 제대로 반영하지 못하는 경우

: 시간 복잡도를 계산할 때 상수나 최고차항 이외의 항들은 모두 소거가 되므로 이때 계산된 값과 실제의 수행 시간이 다를 수 있는데 애초에 예상했던 시간의 100배가 소요될 수도 있고 1/100밖에 소요되지 않을수도 있습니다.

 

 

2. 컴퓨터 메모리(RAM) 사용 패턴이 복잡 다양한 경우

 

 

3. 시뮬레이션 프로그램을 코딩한 프로그래밍 언어와 컴파일러의 차이

: 각 언어마다의 특장점이 있겠지만 대체로 C계열의 언어가 다른 언어에 비해 충분히 빠른데도 불구하고 편하다는 이유만으로 굳이 Python이나 Java같은 언어로 수행하거나 최적화 옵션이 꺼져 있으면 시뮬레이션 실행해두고 한 세월 기다려야 할지도 모릅니다.

 

 

4. 구형 PC나 서버를 사용하는 경우

: 일반적인 컴퓨팅 환경에서는 시간 복잡도가 높은 작업을 거의 하지 않으므로 가장 최신의 것과 몇년쯤 전의 것 사이에서는 시간 차이가 거의 없습니다.

예를들어, Internet Explorer 를 실행하여 여러분이 설정해둔 Main Web Page가 완전히 로드되는데까지 차이가 많이 나봐야 1~2초쯤이겠죠.

하지만 시간 복잡도가 높으면 높을수록 시뮬레이션의 수행 속도 차이는 기하급수적으로 벌어질 수 있습니다.

 

 

5. 시계열 데이터의 처리 내부 반복문이 복잡하고 상호호출 등이 발생하는 경우

: 반복문을 통해 보유하고 있는 데이터의 횟수만큼 루프(loop)를 돌아야 하는데 그 반복문 안에서 복잡한 처리와 연산을 해야 한다면 시간은 당연히 많이 소요될 수 밖에 없습니다.

 

 

6. 시계열 데이터의 재배치가 되지 않은 경우

: 데이터는 시간순으로 배치되어 있을수록 유리하며, 실수 계산은 시간이 많이 소요되므로 시간 복잡도가 높아질수록 정수로 변환한 뒤 처리하는것이 유리할 수 있습니다.

 

 

시뮬레이션에서 같은 것을 대상으로 문제 풀이 하더라도 어떤 시간 복잡도를 가지는 알고리즘이냐에 따라 누구는 1시간만에 누구는 100시간만에 누구는 10000시간이 걸려야 풀 수 있으므로 이러한 부분들을 최대한 고려하여 시뮬레이터를 구현하는 노력도 필요하다는 점을 강조 드립니다.

 

 

 

추가내용 :

필자의 경우 시뮬레이션에는 크게 2가지로 나눕니다.

 

 

첫번째,

과연 현재의 아이디어가 성과를 낼 수 있을까?를 확인하기 위한 시뮬레이션

 

 

두번째,

두번째는 첫번째에서 파생되어 범위가 넓은 시뮬레이션인데요.

과연 여러 조건값들중 어떤 값이 최고의 성과를 낼 수 있을까?를 확인하기 위한 시뮬레이션

 

 

첫번째의 경우처럼 단순한 경우의 수와 조건값의 아이디어를 시뮬레이션 해보는 경우라면 아마도 어지간한 컴퓨터에서라도 초 단위 길어야 분 단위에서 시뮬레이션이 끝날 수 있습니다.

 

 

필자의 경우에는 우선 첫번째 시뮬레이션을 한 다음 어느정도 가능성이 보이면 두번째 시뮬레이션을 하는데 위 본문에서 말씀드리는 것은 두번째의 복잡 다양한 경우의 수의 나열 중에서 어떤것이 가장 최고의 성과를 낼 수 있는지 조건값들을 다양화 한 시뮬레이션을 말씀 드린 것입니다.

 

 

개인적으로 첫번째의 경우에는 이미 많은 시뮬레이션을 해보았기 때문에 현재는 조금 더 세밀한 조건값을 찾기 위해 두번째 시뮬레이션을 하고 있다고 이해하시면 되고 아이디어가 어느 정도 정형화가 되어 있는 첫번째 간단한 시뮬레이션을 해본 다음 가능성 여부를 따지고 두번째 시뮬레이션을 진행하시면 됩니다.

 

 

아이디어를 구체화하는 과정이나 첫번째이든 두번째이든 시뮬레이션을 만드는 과정에서 어려움을 겪고 계신 독자분이 계시면 글 남겨 주세요.

 

 

시간이 허락하는 한 최대한 도와 드리겠습니다.

 

 

 

Posted by 투자의神