Business Cycles and HP filter

 

Postwar U.S. Business Cycles: An Empirical Investigation

A famous paper about how to represent a time series as business cycles.

The problem

Economic fluctuations are too rapid to be accounted for by slowly changing demographic and technological factors and changes in the stocks of capital that produce secular growth in output per capita.

-> To study the comovements of aggregate economic variables, an efficient, easily replicable technique is needed.

The hypothesis

The growth component of aggregate economic time series varies smoothly over time.

 

The Intranational Business Cycle in Japan

%e3%82%b9%e3%82%af%e3%83%aa%e3%83%bc%e3%83%b3%e3%82%b7%e3%83%a7%e3%83%83%e3%83%88-2016-12-20-0-30-06

The data employed in this paper spans over 40 years, from 1955 to 1995 in 47 prefectures. The reason for excluding the data from 1995 onwards from our sample is that the impact of foreign direct investment (FDI) and foreign outsourcing to Asia were negligible before the mid 1990s. From the mid-1990s onwards the Asian economy affected the Japanese national economy and thus regional business cycle could be synchronized with those of other Asian countries rather than other Japanese regions. Thus the current decade is required to draw attention on Japanese regions as well as foreign countries. However most manufacturing firms and plants located inside Japan before the mid-1990s operated without substantial Asian FDI, foreign outsourcing, and hollowing-out.

Traditional business cycle analysis recognizes two types of cycle:

a) ‘classical’ cycle

involves an absolute decline in economic activity from the peak and an absolute rise in activity from the trough.
The NBER for the US and the CEPR for the Euro Area provide chronologies of such cycles. Clearly such cycles do not exist in growth economies and they are relatively rare for European economies and Japan.

b) deviation or growth (occasionally growth rate) cycle

business cycle is identified as a cycle relative to a trend.
In our case, where the original data are annual, there is a reasonable presumption that high-frequency noise, such as seasonal effects, is already filtered out. On this basis we use a Hodrick-Prescott (HP) filter with a ‘lambda’ value (dampening factor) set at 6.25, following the suggestion of Ravn and Uhlig (2002), this corresponds to a maximum periodicity of the cycle of 10 years just as the popular ‘lambda’ value of 1600 does for data observed at a quarterly frequency. The filter is applied to the log of the GDP series for each prefecture and for Japan as a whole

 

Blogs review: HP Filters and business cycles

Hodrick-Prescott filter: The technique is used to decompose economic data into a trend and a cyclical component.

Stephen Williamson writes that in studying the cyclical behavior of economic time series, one has to take a stand on how to separate the cyclical component of the time series from the trend component.

One approach is to simply fit a linear trend to the time series. The problem with this is that there are typically medium-run changes in growth trends (e.g. real GDP grew at a relatively high rate in the 1960s, and at a relatively low rate from 2000-2012). If we are interested in variation in the time series only at business cycle frequencies, we should want to take out some of that medium-run variation. This requires that we somehow allow the growth trend to change over time. That’s essentially what the HP filter does. The HP filter takes an economic time series y(t), and fits a trend g(t) to that raw time series, by solving a minimization problem. The trend g(t) is chosen to minimize the sum of squared deviations of y(t) from g(t), plus the sum of squared second differences, weighted by a smoothing parameter L (the greek letter lambda in the paper). The minimization problem penalizes changes in the growth trend, with the penalty increasing as L increases. The larger is L, the smoother will be the trend g(t).

Tim Duy points that St. Louis Federal Reserve President James Bullard likes to rely on this technique to support his claim that the US economy is operating near potential.

120716_p3

Paul Krugman writes that what is wrong with this view is that a statistical technique is only appropriate if the underlying assumptions behind that technique reflect economic reality — and that’s almost surely not the case here. The use of the HP filter presumes that deviations from potential output are relatively short-term, and tend to be corrected fairly quickly. In other words, the HP filter methodology basically assumes that prolonged slumps below potential GDP can’t happen. Instead, any protracted slump gets interpreted as a decline in potential output!

Tim Duy argues that these features are what makes the HP filter reveal a period of substantial above trend growth through the middle of 2008… contrary to what most people would believe.

Tim Duy points that if you don’t deal with the endpoint problem, you get that actual output is above than the HP trend – a proposition that most people would say is nonsensical. By itself, the issue of dealing with the endpoint problem should raise red flags about using the HP filter to draw policy conclusions about recent economic dynamics.  Luís Morais Sarmento explains that the end point problem results from the fact that the series smoothed by the HP-filter tend to be close to the observed data at the beginning and at the end of the estimation period. This problem is more important when the real output is far from the potential output. At Banco de Portugal, to address the end point problem, they expand the GDP series for some years, using their own projections of GDP growth, for the next years. Marianne Baxter and Robert King (1999) recommend dropping at least three data points from each end of the sample when using the Hodrick-Prescott filter on annual data.

Timothy Cogley and James Nason (1995) investigate the properties of the HP filter. The first problem is that the HP filter can generate spurious cycles in DS processes. In other words, the “facts” about business cycles obtained from the HP-filtered data are often “artifacts”. In essence what HP does is to decompose series into two parts – trend and deviation, where the trend includes all movements with a period of longer than 8 years (depending on lambda), while deviations contain all other movements. The problem is that after such decomposition this deviation component can demonstrate properties that could not be observed for the initial series.

120716_p2Note: the trend-cycle decompositions are based on the entire post-war period for the US economy. The graph only displays the results for the last decade.

 

 

 

Why You Should Never Use the Hodrick-Prescott Filter

Here’s why.

(1) The HP filter produces series with spurious dynamic relations that have no basis in the underlying data-generating process.

(2) A one-sided version of the filter reduces but does not eliminate spurious predictability and moreover produces series that do not have the properties sought by most potential users of the HP filter.

(3) A statistical formalization of the problem typically produces values for the smoothing parameter vastly at odds with common practice, e.g., a value for λ far below 1600 for quarterly data.

(4) There’s a better alternative. A regression of the variable at date t+h on the four most recent values as of date t offers a robust approach to detrending that achieves all the objectives sought by users of the HP filter with none of its drawbacks.

 

Business Cycle Date by ECRI

 

Advertisements

GCI – A Japanese hedge fund

GCIというヘッジファンドの社長山内英貴さんは東大の非常勤講師でもあることで、結構前からこの会社に興味を持っている。後で調べたら、主としてGlobal marco的な投資スタイルまたYale fundを参考するプートフォリオ手法は日本バイサイトにおいても珍しい少数派であることで、ますます感心した。今年7月の時に、特にクォンツ分野では得意でもない私はようやく勇気を振り絞って、GCIのインターンシップを申請した。面接の機会は無事にもらったが、面接は予想より大変たっだ。約3時間3回合計五、六人の面接を受けた2時間後、残念のメールが来ました。あまりにもはやがった、ちょっと期待させる時間ずらなかった。すごく落ち込んた。面接前の一週間でGCIに関する調べられる資料はすべて勉強したのに。面接でそんなに投資分析への熱心を伝わったはずなのに。やっぱり難しいが。

しかし、面接準備のため読んだ資料から、やっぱりGCIが持ってるAlternative投資方法は伝統の投資手法より優れた(かも)すばらしい資産運用手法だなと思う。来週また面接があるため、今日は当時読んだ資料を復習しメモしておく。

 

エンダウメント投資戦略

この山内さんの本は主にエンダウメント投資手法を紹介するけど、正直というとYale fundのレポートを読んだ人に対してエンダウメントの部分はあまり新しいことがなくて、逆に最後の二章での自分の投資経験をもとに書いたヘッジファンドの投資事例と現在世界マクロ環境の感想が面白がった。

GCIエンダウメントポートフォリオの構成は、伝統資産として低コストのインデックス連動型ETF、オルタナティプ資産としてREITインデックス連動型ETF、オルタナティプ手法としてリキッドオルタナティブ公募投信。そもそも前両者は誰でも手に入るindex fund、全体ポートフォリオの肝心またGCI一番の強みでもあるのは最後のオルタナティプ手法だ。

山本さんによれば、リターンを上げるのは三つのパターンがある

1 相場を予測して当てる
2 市場が合理的な理論価格に収れんを前提に安く買って高く売る
3 なんらかのルールやモデルに従って、機械的にトレンドを取り行く

1は綿密なマクロミクロ分析と動物的勘で勝負する。2は市場の歪みを利用し逆らう逆張り。3は「トレンドフォロー」プログラム化された運用モデル(何からの方法)で市場のトレンドを見つけ出し、その方向にポジションを取ります。そのためトレンドが長く大きく続くと、大きなリターンが出る順張り。GCIが使ってるのは3である。

しかしモデルは一過性があるため、長期間にわたってしっかりした実績はトレンドを見つけ出す正確よりも、ポートフォリオとしてのリスク管理の巧みだ。例えば、2011年に誰も想像できない東日本大震災の起こりはパニック的な大荒れ相場となり、市場のリスク回避の動きが噴き出て、ドローダウンによる大きなリターン差が出た。

だから、GCIの策は、平穏な市場環境ではそこそこのプラスリターンを出しておいて、予想外の大荒れ相場で伝統的な運用が大きく損失を出すときには、大きなリターンを上げる。1勝11分け。
(この背景は近年来アクティブ運用の無力化とパッシブ運用の流行りである。またその背景は世界的に利益率下降などつながるだろう)

Talebのようなオプション買の策略より優れる点は:オプションを買い続ける費用に相当するコストがかからず、平穏な市場でも多少のプラスが期待出来る(ポジティプキャリー)

この理論的にはほぼ不可能なストラテジーはGCIが2つ異ったアプローチで接近する

1 分散効果により、オプション買いの効果を作り出す
2 シナリオを選別することにより、オプション買いのコストを引き下げる

1

大震災の大荒れ相場をうまく収益化したGCIのマルチ戦略ファンドは株式から債券まで、発行体の資本負債構造を分析してより有利と思われるものに投資する以上、投資している有価証券を分析して、より効率的なヘッジを常に工夫する。時には個別株式をショートしたり、同じくオプションを購入したりという具合。-> 債券から株式に及ぶ多様な資産のリスクを共通のモノサシで定量的に管理における能力要求が高い。

もう一つ完全なモデル運用戦略もある。学術的研究を基礎に自社開発したモデルが他資産を活用した分散効果によりオプションの為替ヘッジ効果を複製しコストを引き下げる。手法はヘッジツールの分散。ドル円のオプション効果を作るために、ドル円だけではなく、ユーロなど他の通貨や債券、株式の上場先物などでポートフォリオを作る。汎用性が高いため。株式の下落リスクヘッジ戦略も提供できる

分散効果を取り入れた手法は当然、複数の別資産を使って擬似したヘッジ効果が得られないというリストもある。前者マルチ戦略は、fund manager判断の誤り、後者のモデル戦略は、ダイナミックポートフォリオに組み込んむ資産間の相関なとの予期せぬ変動など。

2

債券ポートフォリオのヘッジ戦略を例に。日本国債の下落リスクをヘッジしたい人が多いが、オーソドックスにヘッジすると、ヘッジコストが債券利回りより高くかねず。ここは債券の下落により金利の上昇のシナリオを想定する。a) 景気回復、株価上昇、金利上昇 b) 財政破綻、資金逃避、国債暴落、株価下落、通貨一般売られる。ただし純債権国で低金利通貨である日本の場合は、逆に超円高になってしまう可能性もある(1998年日本経済大混乱)。それでは資本逃避型暴落リスクに対する、できるだけコストをかけずにオプション買いのようにかけておくこと。市場は債券の下落リスクに対して敏感な反応の局面を収益機会にする。

最後は山本さんがGlobal macroに対する長期的な観点

20世紀はインフレの時代、借金をして土地や物など実物資産に投資をしておけば大きな富が築けた。高度成長期の日本はその例。投資過剰、金利やインフレ率が高く、名目資産価値上昇はバプル崩壊後逆転し、ゼロ金利、株と土地の投資が機能しない。

グローバル化、経済の市場化とともにIT革命が進んだことにより、ディスインフレと超低金利の時代は、意外に長引くのではないか。
(7月にこれを読んだ時はうんと頷いたが、今から見ると意外に急に終わるの可能性もないではないね、わら)

 

 

 

人知及ばぬ波乱の市場、モデル運用のヘッジファンドが2カ月収益19%

「山本さんのファンドは主要国中心に世界各国の株価指数や債券先物、為替を投資対象としており、その中から一番トレンドが明確で収益が狙える資産を見つけ出す。レバレッジ倍率は2.5倍で、年率リターンは40ー50%、リスクは25%を目指す。現在の運用額は約91億円。2015 年の収益は4月の欧州国債の急落や8ー9月の株価急落が響き0.18%にとどまった。14年2月の運用開始以来からの累積では173%。」

「同ファンドでは、ヘッジ手段としてオプションなどコストの掛かる方法は用いず、反対の動きを示すことが多い複数の資産をコンピューターが選択。最終的には15種類程度の資産からなるポートフォリオを構築する。」

「同モデルは、調達コストが運用収益を上回るネガティブキャリーとモメンタム(相場の勢い)の兼ね合いも判断要因としており、「キャリーよりもモメンタムの方が圧倒的に強く出ているのでロングでやっている。その勢いがなくなり、ネガティブキャリーが出てくるとポジションは減ってくる」

山本さんのインタビューで

「リスク管理が組み込まれたモデルに従いルールで走って行く」

そうしたことで、たとえ今年2月日本銀行のマイナス金利政策ような市場を見ていて信じられないこと起こしでも、逆にそれを利用し大きな利益を得る。

今年年初の背景は、中国経済の減速、原油価格の下落、世界的に株安の中に東証も急落、資源国通貨が売られ、円高が進行である。そういった年初の1月に金融市場の混乱でリスク回避の動きから安全資産として、山本さんのモデルは日本国債先物を買い集めたらしい。

日銀が1月29日にマイナス金利導入を決定すると国債利回りは急低下(価格は上昇)、国債先物値を急上昇し奏功した。1-2月で同種ファンド平均を大きく上回る18.7%の収益を上げた。

そこで、運用モデルはマイナス金利政策を予測していたわけではない。

15年は金融政策に変更はなく、国債のボラティリティはゼロに近づき、ファンドはリスクの低い資産として保有してきた。

「コンピューターモデルでは、日本国債が方向感なく、ボラティリティの高い状況が続けばポジションは縮小し、追加緩和する場合にはポジションを維持するという。」

1x-1

「年初の株価急落が中央銀行が動かざるを得ない状況を誘発し、モデルとしては日本国債は選好しやすい環境だった」

「株価や為替レートにも上限がないのと同じように、債券価格にも上限を設定せず(国債利回りがこれまでの下限と思われていたゼロ%)にモデルを設計していたとし、市場の想定外の政策発表に伴う債券価格急騰にも対応できた。」

「日本国債のボラティリティが生まれリスクが上昇したとし、徐々にポジションを縮小し、結果的に利食いになっている」

(国債のボラティリティはファンダメンタルズではなく需給によるもの、リスク自体は入札か日銀の買い入れオペレーションの結果を見て動く」

「国債先物を買い持ちにする一方、資源国通貨のうち流動性の高いカナダドルを売り持ちにしていたことが奏功した。カナダドルの対米ドル相場は1月に一時、03年以来の1カナダドル=0.68米ドル台まで下落していた。株式ではなくカナダドルを売り持ちした背景については、株式相場は昨年8-9月に急落した後、10月の戻し方が激しかったため、「ショートするのはリスク・リターン的には選びにくい状況だった」。当初は豪ドルを売り持ちにしていたが、底堅かったため、徐々にカナダドルにシフトしたという。」

 

迫り来る「メガトン級の巨大危機」に備えよ

2016年明け以降の市場は1997〜98年の通貨危機の頃と似ていて、当時バブルが弾ける原因はドル高だった。ドル高が続くと、資本が米国・ドルに向かい、グローバルにつながっている経済の中の弱いところから綻びが出始める。

中国は民間のドル建て債務が急激に膨張しているので、人民元切り下げでデフォルトが頻発するという形になる。昨年から、中国の不動産会社がドル建ての債券の償還を増やしており、これがキャピタルフライトに見えていることもある。

FRBが利上げを続けて行うといったことが可能になるかといえば、それは無理だと見ている。何しろ、債務が積み上がりすぎている。日本や欧州では政府債務が膨らんでいる。米国は全体として債務は落としてきた。

主要国の中央銀行の中で、FRBだけが利上げをする、米国経済だけが順調ですと市場に対して宣言するということ自体が、ドル高と原油安を招き、新興国経済の苦境をさらに増すことになるわけだから、この局面での利上げは矛盾した政策だ。結局、中国も米国も苦しくなり、大きな調整を迎えざるを得ない。

今回は、もっとバブルが大きいことや、中国の体力を考えれば、すぐ危機到来は考えにくいが、逆に言えば、不安を抱えた市場では、ボラティリティ(変動率)の高い、値動きの激しい環境がしばらく続く。難しいのは、昔は、リスク資産の投げ売りが始まったら、国債が保険になった。しかし、日本国債自体は売られないにしても、ほかの資産での損失をカバーできるような上値余地がない。

 

大暴落に備えて個人投資家が身を守る方法

金融市場が不安定なのは、静かに需給が過熱してリスクをとり過ぎているからだけではなく、グローバルなマクロ経済の不均衡がかつてないほどに拡大しているためだ。とりわけ非伝統的な金融政策がそうした歪みを拡大させている。

こうした状態がいつまでも持続可能であるとは思えない。持続可能でないのは、名目・実質経済成長率が低く、ディスインフレないしはデフレの状態が続いていることからも明らかだ。先進国、新興国ともに潜在成長率が低下しているのに、資産価格が高いままなのは異常なことだ。

たとえば、日本の場合、金利のマイナス幅が深くなっていて、ドル円の為替リスクをヘッジをするためのコストは1%近くにまで拡大している。逆に、マイナス金利の日本国債を海外の投資家が盛んに買っていたりもする。外国人投資家は持っている米国債を担保に円を借りると大幅なマイナス金利で借りられるので、それで日本国債を買うと効率的に稼げる。

地方銀行はバブル崩壊以降、貸出が不足する分を有価証券、主に日本国債で運用してきた。これまでは金利が下がって(債券価格は上昇して)きたので日本国債での運用は大成功だった。しかし、マイナス金利になってしまうと、さすがに、経費など間接コストも賄えない状態になる。過去の高クーポン債が償還を迎える2018年度以降の決算を作れるかどうかが深刻な問題となっている。

非伝統的な金融政策が市場の歪みを拡大し、破格の流動性が放出されて、特定の市場の薄いマージンに資本が殺到している。もう一つ、歪みを拡大している要因がある。それは運用の世界がアクティブ運用からパッシブ運用へ移ってきたことだ。こうした投資行動を支持する理論の大前提は市場が効率的であるというものだ。しかし、皮肉なことにアクティブ運用をやる人がいなくなると、市場は効率的でなくなるので、歪みが拡大する。みんながみんなインデックス運用、バランス型投信、ETF、スマートベータなどを目指すと、知らず知らずのうちに自分たちの投資行動が歪みを拡大してしまう。ジョージ・ソロスがいうように、ヘッジファンドの収益機会が拡大している。

img_35f41dd35d6262173c5e43e158a0495a224157

先紹介した山本さんのファンド。2015年12月から今年の1月にかけては円債を買っていた。ファンダメンタルズを洞察する運用者の常識であれば、買おうとは思わない時期だが、モデルは「買い」になっていた。また、今年の5月末から6月にかけては、英ポンドを対円でショート(ポンド売り円買い)していた。これも、「やはり、英国国民投票の結果はEU残留になりそうだ」だという声が強まっていたときなので、実は我々も心配したが、結果的に勝った。

-> 示唆としては、経験と常識のある優れた運用者(人間)なら考えにくい判断メカニズムは、それが”長期的にみて正のリターンをもたらすものであるならば”、常識的、教科書的なポートフォリオに大きな分散効果をもたらしてくれるというものだ。

 

2017/01/28 更新

気鋭の日本人ファンド・マネージャーに聞く投資戦略

当社のファンドは、多資産で動的な理論を活用しています。基礎となる研究では動的なポートフォリオのリターン/リスク最大化と目標のペイオフのコスト最小化の関係を明らかにしました。実際の運用では、どういうペイオフ分布が欲しいかという事を設定して、多資産を動的に取引してそのペイオフ分布の複製コストを最小化するというアプローチを取っています

マーケットは、市場参加者もそうですが、株式、債券、為替とある程度分断されていて横断的には取引されていません。しかし、実際には、リスクとして、完全に分かれているわけではなく、不可分なところがあります。為替のリスクを株式のポジションによって一定程度ヘッジが出来たりすることもあり得るのです。むしろ、そうしたリスクコントロールの方が、結果として、より効率的にポートフォリオを構築できます。伝統的なアプローチでは、損失を定量化して、それ(損失)が一定量に達するとポジションをカットする(ロスカットルール)ことで、リスクをコントロールしています。すなわち、ポートフォリオは、株式、債券、為替とそれぞれ単体のポジションとして管理されている事がほとんどですが、実際には、為替と債券、株式と為替など、リスクは横断的にまたがっており、逆に言えば、各ポジションがリスクを補完するような組み合わせが実現できるのです。各ポジションの単体評価では、市場の振れ幅の中で、カットしてしまうことになるような場合でも、全体的なポートフォリオとしてポジションを組み、評価していけば、より効率よくダウンサイドを抑えることは可能なのです。

ファンドを戦略的に分類するとすれば、グローバル・マクロか、CTAが近いでしょう。マクロ要因によって収益を上げようとする点で、前者に近いのかなと思います。先物をシステムトレードすることで収益を上げるという点では、CTAの側面もあるのでしょうが。

日々のルーティン:モデル開発について考えをめぐらせることもありますが、やはり実証というか、ポートフォリオを構築していくことに時間を使います。そして、データからの計算結果に基づいてトレードをすることもありますし、問題があればオペレーションにも当然、踏み込みます。

モデル開発について:数ヶ月結果が悪かったからといって、直ぐにモデル変更することが必ずしも正しいとは言えません。具体的にポートフォリオを決定するモデルがあるというより、理論背景としては、ドシッとあるということに過ぎません。それを、どうモデルとして具体化していくかというエンジニアリング的な部分では、工夫の余地がたくさんあり、色んなやり方がある。