先日、郵便局をFIREしたMさん。
そんなMさんが中心となって開発した、チャートパターン検出インジケーターがTrading viewにて公開されました。
今流行のチャットGPTを使用しての開発です。
その一部一例を挙げますと…
「ピボットを用いた平均偏差を取引するEA(エキスパートアドバイザー)をMQL4で出力して」
とChatGPTに聞いた例。// ピボットを計算する関数
double CalculatePivot(int period) {
double high = iHigh(NULL, period, 1);
double low = iLow(NULL, period, 1);
double close = iClose(NULL, period, 1);
return (high + low + close) / 3;
}// サポート/レジスタンスレベルを計算する関数
double CalculateSupport(int period, double pivot) {
double low = iLow(NULL, period, 1);
double support = (pivot * 2) - high;
return support;
}double CalculateResistance(int period, double pivot) {
double high = iHigh(NULL, period, 1);
double resistance = (pivot * 2) - low;
return resistance;
}// ピボットEAのエントリーロジック
void OnTick() {
double pivot = CalculatePivot(1);
double support1 = CalculateSupport(1, pivot);
double resistance1 = CalculateResistance(1, pivot);if (Bid > resistance1) {
// レジスタンスを突破した場合に売り注文を発行する
OrderSend(Symbol(), OP_SELL, 1.0, Bid, 3, 0, 0, "Sell order", 0, 0, Red);
} else if (Ask < support1) {
// サポートを下回った場合に買い注文を発行する
OrderSend(Symbol(), OP_BUY, 1.0, Ask, 3, 0, 0
Mさんからのメール(R5.4.5)から引用
こんな感じだそうです。
私には、ちんぷんかんぷんですね(笑)
しかし何が凄いって、つい先日まで郵便局の現場で働いていて、プログラムの知識もほとんどなかったMさんが、これだけの成果物をあっさり作れるという事実です。
チャットGPT、恐るべし。。
※ただし、Mさん自身の地頭が人並外れていることも申し添えておきます。
Mさん曰く「多くのプログラマー、ホワイトカラーが不要になる未来が、はっきり見えた」とのこと。
はい。
私もAIについては全くの素人ながら、そう感じざるをえません。
いやいや、かつての産業革命、IT革命でも同じ懸念が示されて来たけど、結局そうならなかったじゃん!
そう思われるかもしれません。
しかし、チャットGPTが「過去の革命」と根本的に違うのは「言語」を用いている点です。
私は、人間だけが高度なテクノロジー社会を築き得た根底には「言語」と、それによる「抽象化能力」がある、と考えています。
前回の記事で書きましたよね。
チャットGPTは、ここに切り込んできたのです。
労働を「構想」と「実行」に分離して考えると、これまでの「革命」で代替されたのは、須らく「実行」部分でした。
より速く計算する、より速く伝達する、より正確に繰り返し作業を行う。
人間が「構想」に基づいて「命令」し、それを「実行」する。
蒸気機関もコンピュータも、結局は「実行」部分しか代替出来なかったのです。
チャットGPTが根本的に違うのは、言語及び抽象化能力によって「構想」部分をも人間にとって替わろうとしている事なのです。
私はこの記事で
AIに「円安に依る円ベース資産額押し上げ効果」を「円安ベホマラー効果」と表現できるの?
と疑問を呈しました。
AIなんざ、所詮はパターン認識。
そんなAIにメタファー(隠喩)やアナロジー(類推)を理解できるはずがない。
言葉の意味を理解できるはずがない。
そう考えてのことです。
しかし…
!!!!!
「ベホイミ」の文字を見た時の、私の衝撃が想像できるでしょうか。
回答を見る限り、ロジックの横展開、つまりアナロジー思考が出来ています。
正確には「あたかも出来ているような」アウトプットです。
「統計的に次に来る可能性が最も高い単語を予想する」という帰納法的な手法で、何故こんなことが出来るのか?
正直、おったまげました。
全面降伏です。
すいません、私のAIに対する認識が誤っておりましたm(__)m
AIの最初の回答は一見きれいに見えますが、主に具象部分に複数の誤りが含まれています。
まるで「ひろ〇き」氏のようですね(笑)
「ベホイミ」という回答を引き出すには、この誤りを指摘し、尚且つ「正解」が含まれるカテゴリの抽象度を下げていく必要があります。
・最初に「ドラクエの魔法で」とカテゴリを限定し、
・AIが挙げてきた具象(個々の魔法)の誤りを指摘し、
・「資産額の回復」という面に注目して、と要求する。つまり「魔法」から「回復魔法」へと抽象度を下げる。
このような手順が必要です。
これを行わないと、一般論的な、つまらない回答をしてきます。
これは私という人間が、どのような回答を求めているか、何をもって私が「面白い」と感じるかを定義できていないためでしょう。
この問題については、回答の都度、私がフィードバック(検証)を行うことで、徐々に解消されていくと思われます。
チャットGPTが無料で開放されているのも、このフィードバックを収集するのが目的の一つなんだろうな。
膨大なフィードバックが蓄積されていけば、いずれAIは人間の「感情」や「目的」を定義できるようになるかもしれません。
まとめます。
チャットGPTは、
①アナロジー思考(ロジックの横展開)はできる。正確には「あたかも出来ているような」アウトプットができる。
②しかし、具象(個々の魔法)の定義、分類(カテゴリ分け)が不正確である。
③「人間の意図」が定義できていないため、一般論的な回答しか返さない。望む回答を得るには、質問をより具体的にする必要がある。
このような現状になります。
②、③については、人間のフィードバックによって、徐々に解消されると思われます。
いや、すごい事になりました。
私がなぜアナロジーにこだわるかというと、「仮説」を立てる上で必要不可欠な手法だからです。
ニュートンはリンゴが木から落ちるのを見て「万有引力」という「仮説」を立てましたよね。
典型的なアナロジー思考です。
AIは、ご覧の通りアナロジー思考に基づいて「仮説」を立てることはできます。
しかし、現段階においては「検証」を「フィードバック」という形で「人間の手で」行う必要があります。
人間の意図、つまり正解が定義できないからです。
これが定義できたとき、AIは自律的に、あらゆるテクノロジーを進歩させ始めるのではないでしょうか。
まさにシンギュラリティですね。
落合陽一氏によると、シンギュラリティは数年後に迫っているらしいです。
これが本当ならば、人間は「大多数の人が職を失う」どころの話ではなく、実存の危機、レゾンデートルの危機に直面するでしょう。
本当の意味で、世界が「終わったドラクエ」化するのです。
この回答、素晴らしいですね。
魔王が倒された後の世界では、魔物に依存していた生活や経済システムが崩壊することが予想されるため、それに伴う社会的混乱や紛争なども「敵」として考えられるでしょう。
魔王こそが世界を規定する「本質」であることを見抜いています。
そして、魔王を倒す「勇者」が「AI」であることも「理解している」のでしょう。
次回の記事では、ここを切り口にして「シンギュラリティ後」の世界を考えてみます。