トレーディング、Arts&Logic by 田中 雅

閉じる
  • 自分でトレードひまわりFX
  • 自動でトレードエコトレFX
  • FXを学ぶアカデミーチョイス
  • マーケット
    情報を知る
  • お客様サポート
お困りのことがございましたら
お気軽にお問い合わせください
0120-86-9686
受付時間 AM9時〜PM5時(土日・年末年始を除く)
閉じる
MENU

自分でトレード ひまわりFX

自動でトレード エコトレFX

FXを学ぶ アカデミーチョイス

マーケット情報

お客様サポート

閉じる

ローカルナビゲーション
  • エコトレ FX TOP
  • システムトレードの基礎知識
  • エコトレ FX 詳細
  • ポートフォリオジェネレーター
  • ループ・イフダン®

トレーディング、Arts&Logic by 田中 雅

第VII部:システム構築と評価

2章:システム構築の参考書、ソフト、データ

2010/7/28

参考書

システムトレーディングについて書かれた本は今や無数と言ってよいほど沢山ある。電子メディアによる教材(=Webセミナーなど)も、本と同じか恐らくそれ以上に提供されている。

初心者の方々にはこれ等の教材から初級のものを選んで学んでいく事をお勧めする。しかしもしシステムトレーディングに深く関わってみたいと考える人が、そのシステム取引生涯計画のようなものを立てたい場合は、これから自分の人生に何が起きそうなのかを事前に知ってから計画する必要がある。

その為には本格的に全てを網羅して記述された教材を入手する必要があるが、私が読むことをお薦めしたいのは『アルゴリズムトレーディング入門(自動売買のための検証・最適化・評価)、ロバート・パルド著、パンローリング社刊』である。

アルゴリズムトレーディング入門、ロバート・パルド著、パンローリング社刊
(画像:アルゴリズムトレーディング入門、画像提供パンローリング社)

この本は90年代の初期に出版されたロバート・パルド著『Design, Testing, and Optimization of Trading Systems』の改訂版である。改訂版の原語表題は『The Evaluation and Optimization of Trading Strategies, Second Edition』と称し、2010年に邦訳がパンローリング社より刊行された。

私は英文の初版本を90年代初期に手に入れた。初版本は当時プロのシステムトレーダーの間では古典的な名著としての評価を得たが、一般の取引者にはニーズが無くあまり読まれることは無かったようだ。初版本は、やはりパンローリング社から邦訳が出ており『トレーディングシステムの開発と検証と最適化』と題する。

この本はいわゆる取引戦略そのものを提示する本とは異なる。取引戦略をどのように検証し最適化して、市場で実施すれば良いかその管理の手法に関して述べてある。つまりシステム構築ソフトの使い方の指南書である。取引アイデアそのものについては殆ど何も書かれていない。この点がアイデア編纂本とは一線を画する。答えが記されてなく、答えに到達するための取るべき道筋だけが書かれているのだ。

システム取引関係者の注目を集めた最大のポイントは、この本の中で当時は全く斬新と思われた徹底的に合理的な提案がなされていたからだ。それは「ウォークフォワード」という検証の手法である。この手法はアウトオブサンプルテスト、外挿テストなどとも呼ばれる。その主張の要点は次のようになる。

「取引戦略を過去のデータを使い適正化して作り上げても、それだけでは不十分である。後講釈による知恵で作られたシステムなので実際取引では期待を満たすような成績を上げる事が出来ない。」

「歴史的価格データを使って取引戦略を適正化する際に、わざと使わないデータを別に保留しておく。最適化された戦略をその保留したデータを使って新規に仮想取引をさせ、それでもうまく行けばそこで初めて実践で使い物になるシステムが構築されたと言える。」

これはシステム取引を相当に経験した人なら良く理解できる合理的な主張だったが、なぜかシステム取引業界全体では無視される傾向のほうが強かった。さまざまな営業上の理由から、その方が業界には都合が良かったのだろう。

パルドが主張するウォークフォワードテストは膨大な手間が掛かる検証法である。実のところテスト機能の自動化プログラミング自体はそれ程難しいものではない。しかしながらウォークフォワードの完全自動検証機能をデフォルトで実装しているソフトは実は皆無に近いという状況が10年以上続いた。自動化された機能が実装されていないソフトでは、こんな面倒な作業を手間隙掛けて実行する人は少なかった。パルドの主張は絵に書いた餅になってしまったわけだ。

私は恐らく日本人で最初に完全自動化されたウォークフォワードテストを体験した人々の一人であるはずだ。あるいは本当に最初の一人だったかもしれない。なぜなら90年代の半ばでこの機能を実装した魔法のようなソフトは皆無に近く、私は無償で米国のCTAから独自開発のソフトを運よく入手する事ができたからだ。(本掲載、「間奏曲(3):売買ストップの原型を捜し求めて」を参照)。日本人個人がシカゴ市場を取引する為のドル口座を開く事すら難しかった時代なので、為替規制の無い、しかも開かれたオランダに住んでいた私には、そのような幸運に巡り合える環境上の優位性があったのだろう。

パルド著:『アルゴリズムトレーディング入門』

この本が書かれた目的は序文の最後部にこの上なく明瞭に記されている。
「ゲームの勝者になる為には、昔のフロアトレーダーの言うエッジ(優位性)というものを見つける必要がある。」「こういったエッジはどうすれば見つけられるのか。そしてそれを洗練し、最適化し、巨額の富を築くにはどうすればいいのか。それをこれから一緒に模索していきたいと思う。」

では、どう模索していけばその「巨額の富」が築けるのか、同じく序文でパルドは次の様な基本方針を述べている。

「アルゴリズムトレーディングのメリットを一般に広く認識させることに長年取り組んできたものとしては、アルゴリズムトレーディングを頭から疑うのも、宗教のように信じるのも危険だと思っている。私が提唱するのは科学的手法と経験的アプローチである。こうした批判的手法を、一貫性と厳密さ、そして適度な懐疑主義をもって採用しない限り、トレーディングでの成功はあり得ないと思っている。」

パルドは良識の人であり、この上なく慎重な性格の持ち主である事が良く分かる。これは金持ちになる最短コースを教えてくれる本では無く、おそらく最長のコースを丹念に忍耐力で歩き通すためのガイドブックなのだということが直ぐに分かり始める。それがパルドの言う金持ちになる方法なのだ。
実際のところどうなのだろうか?目次より目立ったキーワードをすべて拾い集めてみた。

第2章:レベルを引き上げる、実証、定量化、客観性、一貫性、正の期待値、適切な口座サイズ、最適化、戦略の完全理解、信頼性、戦略の改良
第4章:自動化、スクリプトの診断、処理速度、ウォークフォワード分析、リスク管理、利益管理

第6章:安定性、自由度、戦略のライフサイクル、モデルの寿命、具体化

第8章:予備検証、理論による検証、多期間検証

第9章:探索と評価、グリッド探索方、多点山登り法、遺伝的アルゴリズム、粒子群最適化、目的関数

第10章:最適化の評価、堅牢な戦略、統計学的に有意な最適化特性

第11章:ウォークフォワード効率

第12章:リスク調整済みリターン、安定性、収益パターン

第13章:オーバーフィッティング、後知恵の誤用、自由度の測定、過剰変数、過剰スキャン

第14章:投資収益率、心理的側面、邪悪な戦略、市場の縮小、未知の市場状態、最大損失、評価特性、連敗、予期せぬ利益

明らかにこの本は寝ながらにして大金持ちになる秘訣を伝授してくれるものではない。それどころか巨額の富を追求すると言明されているにもかかわらず、肝心の「利益」というキーワードすら目次には見つからない。やっと見つけた一言が最終章の「予期せぬ利益」である。これがこの本の変わったところである。私と似た損失体験を持つ一部の人は、恐らくこの本に共感を覚えるはずだ。

システム構築ソフトの選択

パルドが第4章で手際よく指摘しているように、戦略開発プラットフォームの選択には、次のようなポイントを最優先させて選択の基準にすれば良いと思う。

  1. 開発言語
    ウィザード形式でシステムを簡易に構築していく手順が組み込まれている場合は、プログラミング言語の知識を殆ど必要としない。しかし実際取引で優れた成果を上げるようなシステムはウィザード形式で完成させるのが難しい事が多く、スクリプト言語を自由に操ってシステムをプログラミング構築する方が好ましい。結局、この両方に対応しているのが一番使いやすく、長く使いこなす事ができる。
  2. チャート上に取引シグナルを詳細に表記する機能
    これが無いと正しくプログラミングされたかどうかを目測でチェックする事が非常に難しい。
  3. レポート作成機能
    いわゆるパーフォーマンスサマリーという損益の統計的数値的分析を分かり易くまとめた報告機能。これが優れていないと取引戦略の良否が評価できない。
  4. 高速最適化機能
    全幅検索以外に超高速の特殊探索機能を備えているかどうか。ここで多くのソフトの優劣がまず明らかになりふるいに掛けられる。最も期待されている有効な最新の探索機能が遺伝的アルゴリズムである。これに似たような間引き超高速探索機能が実装されていないと、実用に耐えられる程度の複雑なシステムは最適化に時間が掛かりすぎて探索できない。(間奏曲2:「市場のパズルを解く」を参照)
  5. 全自動ウォークフォワード分析機能
    アウトオブサンプルテストは手動で実行する事も不可能ではない。しかし大量の取引戦略を比較研究している際に手動でこれをするのは手間が掛かりすぎて不可能に近く、実行しない事が実際は多い。そこで自動化されたウォークフォワード分析機能が是非とも必要である。パルドが必須条件として特に強調したのがこの点だった。
  6. ポートフォリオ構築と分析
    リスク分散の最も効果的な手法として知られるポートフォリオ取引。これを自動的に構成管理し、パーフォーマンスを評価する機能。手動でも出来ない事はないが、大変な手間がかかる。
  7. 既知の取引戦略が網羅的にプログラミングされ、手本として組み込まれている事
    これはパルドの条件ではないが、非常に役立つ。殆どの人は手本を真似て自分のプログラミングを試みるので、手本がそこに備わっている為に学習効率が高くなり、圧倒的に時間の節約になる。

以上の全ての条件を備えたソフトで、個人投資家が入手できるような物は、実は過去15年間ほとんど存在しなかった。

私が市場取引をした期間は、システム取引発達の歴史とほぼ重なり合っている。もっとも人気が高いソフトは、メタストック(個人向きシステム構築ソフト)とトレードステーション(プロ向きシステム構築ソフト)だった。私は何れも創成期から使っていた。特筆すべきはサポート情報の豊かさである。ありとあらゆる既知の取引戦略は誰かが何処かで既にプログラミングしており、それを無料か格安でネットのどこかに公開していたり、議論をしている可能性が高い。しかし残念ながらこれ等は殆ど全てが英語で書かれており、アングロサクソン文化圏に馴染まない人々はシャットアウトされていた。また、いずれのソフトも上記の条件をデフォルトで全て満たしているとは言えないと思われた。

日本人の目から見ると、パルドの条件を満たし、しかも日本語でサポートされる安価なソフトウエアが入手できるようになったのはここ数年の話である。私が知った限りでは、最初から全ての条件を満たす機能を実装しており、使いやすいのはトレードシグナルである。

私の生涯で初めての経験となったトレードシグナルの遺伝的アルゴリズム探索機能は素晴らしいものである。実は遺伝的アルゴリズムによる取引戦略の探索を提唱したのはパルドその人である。90年代にその雑誌記事を読んだ私はパルドに電話して「その探索法を実装した貴方のソフトを紹介してほしい」と頼んだ事がある。その時の答えは「自分にもまだプログラミングが出来ていない」という事だった。

今回彼の最新作『アルゴリズムトレーディング入門』の該当章を読んだ限りでは、特にプログラミングに成功したとは書いていなかったので、あるいは未だに完成していないのかもしれない。
突然変異を利用して思いがけないシステムを発見する能力をそなえる遺伝子アルゴリズム探索法は素晴らしく実用にも役立っており、使うときは期待感でワクワクすることが多い。

トレードシグナルの利点は他にもあり、トライアル期間が提供されているのであらかじめ体験テストをする事が出来る。

トレードシグナルを使うと決定すると、それ以降の選択はかなりの部分が自動的に決まってしまい、いわば一蓮托生で歩む事になる。システム構築ソフトの選択は国際結婚に似ている(私は国際結婚の経験が無いので単なる想像だが)。長い時を共に過ごす事になるはずのこのパートナーは、ひょっとすると山之内一豊の妻のような賢婦であり「巨額の富」をもたらせてくれる可能性を秘めている。しかし全く異なる言語しか話さない別世界から来た人でもあるので、最初は意思疎通が難しく苦労続きだろう。これは生涯計画の一部だと思って始める方が良い。

ヒストリカル・シミュレーション、三つの難題

ではヒストリカル・シミュレーションに取り掛かる。ここからはマニュアルのように全ての手順を詳説するのではなく、それらの手順の中で何が最も重要なポイントとなっているかを抜き出して、私の経験で得られた知識や知恵を書き進めて行きたい。

多くの点ではこうすれば良いと言う答えが見つかっているが、幾つかの重要問題は満足できる答えがまだ見つかっていない。その中でも特に難問とされるのが(1)歴史的為替データに絡む問題、(2)両打ちの問題、(3)スリッページの問題である。
この第2章では、まず(1)に触れておく。このテーマに関しては余り知られていない事が多いのでこの機会を利用させて頂き詳説する。

歴史的為替市場データ

ソフトの選択と同じくらい議論されてきたのが歴史的市場データの選択である。特に為替市場データは入門者には分かり難いさまざまな問題を抱えており、次にその要点を述べる。

トレードシグナルの場合には、主要な市場価格データがリアルタイムで歴史的データと共に全ての時間枠で毎回使用する度にデータフィードされる。使用料金にデータ利用料も含まれているので最初はこれだけで始めるとよい。つまりデータの選択に頭を悩ます必要が無い。ある意味では問題に直面しないし、問題の比較対象が無いので気付かない事が多い。最初のうちはソフトについてくるデータだけで何不自由無くシミュレーションも実際取引も出来る事だろう。

歴史的データを別途に蓄積している場合は、これとリアルタイムデータを自動的に連結して使用するという素晴らしい機能が備わっており私も感心する便利な機能だ。このあたりから問題を意識する事が増えるようになる。

さらに中級以上になってデータの精度に特別に依存するようなタイプの戦略をテストするようになると、正確なデータとは一体何なのだろうかと言う疑問に直面する事になる。しかもその答えは解けないことが多い。例えば次のチャートを見ていただきたい。

データ供給源が変わるとシミュレーション結果も変わる例
(画像:データ供給源が変わるとシミュレーション結果も変わる例、画像筆者作成)

これは4~5年前にドル円の15分足を使って超短期「順張り取引」のシミュレーションをした時の記録資料である。テスト1とテスト2の戦略を使って取引させた損益累積曲線である。テスト1の損益曲線が2003年の春を境に急落し始めた。しかもその急落の仕方が一直線と言う尋常では無いパターンだった。私は奮い立った。これ程に規則的なシステマチックな損失が出るのは、コストによるものでなければ、何か原理的な原因によるものが多く、その損失原理を追及していけば、逆に一直線の収益が得られる素晴らしい新戦略を発見するかもしれない。

しかし問題は2003年以前の成績である。2001年から2003年まではテスト2と同じく、可も無く不可も無い横ばいに近い収益でしかなかった。何がこの2003年前後の差異を生んだのかを知らない限り、この戦略が本当に良いものなのかどうかは判定できない。

1週間ほど原因がどうしても分からず、データを長年蓄積して来たプログラマーのT君が血眼になってこの負ける原因を探してやっと突き止めたのが、何と「2003年5月を境にしてティックデータの供給元が変わったのだ」ということだった。

このシステムは順張りだったので、恐らく2003年以降のデータは2003年以前のデータよりもレンジ幅が僅かに広いのだろうと想像がついた。実のところティックデータはその情報源とか記録方式が不明なものが多く、この例の場合も2003年の前と後ではどちらが正しいと言えるのか判定がまったく付かなかった。この様な場合には最悪を想定して判断すべきである。つまり2003年以降にデータ供給元を変えていなければ、なんら目新しい結果は恐らく出なかっただろうと考えるべきである。勝敗は戦略に拠るものではなく、データの性質に起因すると見做すべきだ。それ以上は幾ら考えても分からない事なのでシミュレーションそのものを断念した。データが変わるとこれほどまでに結果が変わるという良い実例なのでシミュレーション記録を大切に残しておいた。

歴史的市場データの特殊性を比較する

通常のシステム取引でこれほどに深刻な問題となることは少ないのだが、現状ではインターバンク市場の価格変動データは次のような理由でさまざまな仕様の異なるデータが混在しており、何が良い歴史データなのか標準が存在せず実は単純に問題を解決できない場合が多い。

データの細部構造にこだわる高精度なスキャルピングのようなシステムなどでは、データの精度に依存する度合いが飛躍的に高まる為、今使っているデータがどの様なものか正確に理解しないでシステム構築を進めていくと、とんでもない失敗に繋がる事がある。

分かっている歴史的な問題点は次のとおり

インターバンク市場では通貨先物取引所のように取引データをティックベースで正確に管理保存し公開もしくは販売するという必要と習慣、及びニーズが長い間無かった。

為替市場の最有力リアルタイムデータ情報供給会社が、歴史的データ保管の商業的重要性に気づいたのは非常に遅かった。またブルームバーグのような後発組は、市場価格データの商業性に着目した営業政策を採用したが、会社の歴史そのものが為替市場よりも短く、古いデータに自前では直接関与する機会がなかったという事情がある。

今日でも、時間足データ作成の基となるティックデータが、先物取引所データのように現実出会い成立ベースで記録されるということがあまり無く、多数銀行の気配値情報の流れとしてしか記録されていない。従って同じ会社が公表した日足の高値安値と、その日のティックデータの高値が数ピップの差で一致しない事は普通である。この数ピップの近辺に入れていた注文にとってこれは重大問題である。僅か1ピップの差で、今後大収益(あるいは大損失)をもたらしたかもしれないポジションが取れたか取れなかったかが決まるのである。

しかも昔のデータはビッド値だけでしか記録されていない。長い間日足もビッド値だけを新聞に公表するという習慣が定着していた為、オファーの記録は元々されていないか、不必要なものとして破棄されていた時代があった。

残っている古いデータは管理が悪く出所や情報の取得方法が不明なものも多かった。政府系公的機関による記録が残されているが、これらも引け値だけの記録だったりして、現代の要求に応えられるようなデータそのものが実に少ないのである。

一般的な解決方法

ここ数年の傾向だが徐々に問題は解決の方向に向かっている。為替市場最大最重要の電子取引プラットフォームとされる銀行間電子取引システムEBSに、その他のインターバンク取引が横並びになりつつある。
EBSと呼ばれる取引システムは銀行にしかアクセスが出来ない、それにネット取引を含む全ての取引が値を寄せており、最近は誤差が徐々に縮小の方向に向かっている。

しかし深く過去に遡ってシミュレーションをする必要がある場合には、先物系データ会社の歴史データが最も古くまでさかのぼることが出来る。先物取引所市場データはもともと成約ティックベースで記録保管の必要が有り、管理保存が良かった。また先物取引情報と平行して現物市場のデータも参考付随情報として記録する習慣があったのが幸いして、シカゴの為替先物であれば現物為替市場のデータも残されている。

これが現在商品化されているスポット為替市場データの源になっている事が多い。古いものは米国時間だけのデータであったり、引け値だけであったり、23時間データであったりさまざまな変形を混在させているのが普通である。

先物系で今でもデータビジネスを継続させており入手が容易な会社は、幾つか有るが筆者は次の2社を20年くらい使って来たのでその歴史にも詳しい。

CRB即ちCommodity Research Bureauは世界で最も古い先物市場情報販売会社のひとつで、有名なCRB商品先物指数の提供会社である。この会社の浮き沈みは相当なもので、私がデータを購読し始めて以降次の様な紆余曲折があった。

CRB社データ>ナイト・リッダー社に併合>ブリッジ社に併合>ブリッジがテレレート社を併合>世界最大にまで巨大化したブリッジ社破綻。>バーチャート.COMに買収され会社名がCRB社に復帰。

会社は30年代に設立されており、為替データは例えばドル円なら1940年代の引け値データまで遡る事が出来る。4本足に近い情報が出てくるのは70年代からで米国時間であったり23時間であったりさまざまなデータを混在させつつ整備されたデータに変遷して行った。良い点はどのデータがどのようにして取得されたかを記録している点である。不備なものはどの様に不備なのかが事前に分かる。

前述のメタストック用に供給されてきたデータも歴史が古い。

米国Equis社メタストック系データ>ロイター社がテクニカル分析とシステム構築とデータ販売を強化する為にテレレートとEquis社を買収併合した>テレレート部門は前述ブリッジに買収される>近年トムソンがロイターを併合して巨大金融情報会社に生まれ変わった。

以上のように市場データの歴史は、つまるところ金融情報会社のビジネス覇権争いの流れをそのまま反映しており、データも目まぐるしく変遷する親会社の交代毎に情報源が変わったりしてデータの性格までもが一貫性を失うリスクが何度もあった。

シカゴIMM取引所のデータはインターバンク市場が主導権を取るまでは、唯一最大の情報源だった。シカゴ時間しか取引されない局地データだったが、その後Globex電子取引データを併合し、24時間連続のデータを継続保存している。取引量がインターバンクに比べて遥かに小さいという問題があるものの、気配値ではなく成約値のティックデータとしては最も歴史が長い。正確なデータを使って細かいスキャルピングをするようなタイプのシステム構築においては実際取引との整合性が高いので、わざわざIMMベースでシステム取引するCTAもいる。

ロイターとブルームバーグ社のデータ比較検証:

かつて私は金融機関で愛用されるロイターとブルームバーグの提供する為替データの詳しい調査をする機会を得たことがあった。金融機関系のシステム取引者はこの二つのデータを使ってエクセルベースでシステムを構築する人が多い。調査の結果次のことが分かった。最も新しい通貨Euroを例に取る。

■ ロイター、ブルームバーグともに1999年のEUR統合以前は、ECU(エキュー)の転用データが使われている:

Closeの基準は:
ロイターがGMT21:50
ブルームバーグがNY17:00
Openの基準は、それぞれCloseの次のティック。

■ データ取得方式に基本的差異がある:

ロイター社は土日等であってもコントリビュータからデータ取得可能であればデータベースに蓄積する。逆に十分なデータ取得が不可能な場合は、その日はデータを一切記録しない。1999年以前はロイター、ブルームバーグでほとんど差はない。基本的にロイターは最低5社程度のコントリビュータからデータ取得できないと、データ蓄積を行わない。

クオートしている社数が5社に満たない場合は、データが欠落していると見做す。従って日柄は不規則となる。この場合他通貨との比較などで不便だと感じる場合があるかもしれない。

一方、これと対照的なのがブルームバーグのデータ蓄積方式で、週5日制を堅持する。したがって日柄は規則的である。データが無い日は仮想データを暫定的に書き込んである。仮想データは寄り付き、高値、安値、引け値の全てが等しいゼロレンジデータとして記録される。

これを知らないでシミュレーションするとシステムがシミュレーション続行不可能になるか、予想しない不都合が発生する場合があり得る。現実にはありえないゼロレンジを現実のレンジとして計算するからだ。場合によっては両打ちが同時間に発生したり、あり得ないポジションが発生したりすることが起こり得る。またレンジを計算対象とする指数などにも微妙な影響を与える。

ゼロレンジデータを回避する為には、データそのものを使用者が削除修正するか、これを回避する目的で極小レンジ回避フィルターをシミュレーションに組み込む。私はこの両方を実行していた。データを手作業で修正するにはエクセルに読み込んでレンジ幅をソートし、ゼロレンジを削除する。

全てのシステム取引者は、取引戦略によっては自分が取得するデータに仮想のゼロレンジが含まれているかどうかを事前に調査する必要がある。

■ ティックデータに関しては当時以下の点が判明した。

ロイターでは1990年から取得できる日足データはBidベースのものだけ。Mid(もしくはOffer)は比較的最近に取得を開始した。

Openは92/5/17以前は取得していない。これはユーザーからの要望がなかった為で、それまで蓄積していなかったとのことである。当時を振り返ってみると新聞などの価格情報でも寄り付き値は割愛される事も多かった。この習慣は株式市場から来ている模様で、昔の米国の株式チャートには寄付き値が記載されていないものが多い。海外系老舗のチャートソフトでOpenなしのバーチャートの描画機能を選択できるようになっているのは、この頃の習慣の名残であろう。

余談となるが、筆者は、1999年に仮導入され2000年に正式導入されたユーロドルのシステムを1999年以降のデータで構築し、試しにそれ以前の仮想ユーロドル(=ECUの転用)でテストしたところ、本物のユーロドルと同じ様に上手く機能したことがあった。本来うまく行かないはずのテストである。

うまく行った原因は色々考えられるが、一つ思い当たるのはユーロドルのレンジが、ECUのデータレンジと比較して広めに計測されている場合である。逆にECUは平均指数なのでスポットデータに比べてデータが狭くなりやすい傾向がある。

狭く計測されたデータはブレークアウトやトレンドフォローには有利な結果をもたらす。逆に広めに計測されたデータは逆張りに有利だが順張りには不利な結果となる。

同じ通貨でも供給会社によりレンジ記録に差が出る場合が多々あり、コントリビュータの違い、ビッド/オファーの処理の違い、気配値と約定値の処理の違いなどによる。自由大国フォレックスの中では、ことデータに関する限りは自由である事が実は裏目に出ているのだ。

特にスキャルピングのシステムは平均利益が数ピップ(=数ティック)である事が多く、僅か1ティックの差でもシミュレーション収益が数十パーセント増減する事が多い。

実際取引用のデータ

以上はヒストリカル・シミュレーション用に使うデータの問題点であるが、実際取引においては稼働システムが自動的に供給するデータをそのまま使う事になる。これ等のデータはデータベンダー次第で千差万別と言えるが、幸い近年はEBSに横並びとなりつつある。EBSとは銀行間電子取引システムの事である。インターバンクのディーラーが最も依存するEBSの価格水準に、他の全てのFX取引価 格が収束すると言う原則が定着しつつある。従って問題は減りつつある。

主要データ・フォーマット

販売されるデータは独自のフォーマットに変換されているものが殆どで、読み取るにもその会社が供給するソフトでないと読み取れない事が多い。この不便を解消するには一度フォーマット変換をする必要があり、有償無償の変換ソフトが存在する。次に最も一般的なフォーマットを羅列する。

チャート・プロ:ナイト・リッダー社系、CRB社の使うフォーマット
メタストック:EQUISインターナショナル社のメタストック系(ロイターが買収)
CSI:CSI社、ジェネシス・データ・サービス社系
アスキー・スペース分離:一般流通。SDF。エクセルかテキストエディターで読み取れる。
アスキー・カンマ分離:一般流通フォーマットの主流。CSV。CDF。同じくエクセルかテキストエディターで読み取れる。

原則的にデータそのものにはコピーライトを付け難く、独自フォーマット化されたデータにはコピーライトが付けられるとされる。そこで商業的データ販売のために各社独自のフォーマットが乱立することになった。使用者の側からはこれに対抗してフォーマット変換の技術が発達した。ロイター社やブルームバーグ社のようにもともと操作が簡単なカンマ分離かスペース分離のデータをディーラーに自由に使わせるというやり方が、データ解析技術の発展を支援する意味で最も理想的な形態だと思われる。

第VII部:システム構築と評価 第2章:システム構築の参考書、ソフト、データ、 田中 雅 2010年7月20日