DetChar MTG
                                  ===========

Author: Yuzurihara <yuzurihara@Deneb-no-MacBook-Air.local>
Date: 2014/10/21 11時25分38秒


Table of Contents
=================
1 参加者
2 announce
    2.1 aLOG
    2.2 Interesting papers
3 daily work  
4 special topics
    4.1 MBLT
    4.2 NHA
    4.3 SRMon/RayleighMon
    4.4 Correlation Monitor
    4.5 間野
    4.6 提案

1 参加者
~~~~~~~~
  端山, 山本, ゆずりはら, 上野, 浅野, 間野, 宮本, 横澤, 間野

2 announce
~~~~~~~~~~

来週のDetchar MTGは端山さんが神岡にいるためキャンセル
神岡に行く理由は、磁場測定の下見のため
磁場測定は去年の今頃にも行われたが、そのときは装置の雑音によってlimitされ、
神岡の磁場にupper limitを設定するにとどまった
今回はもっと感度のよい装置を用いて測定を行う、そのための下見を行う

KAGRA PABが10/31, 11/1に富山大学で行われる


2.1 aLOG
========
(山本) [http://gwwiki.icrr.u-tokyo.ac.jp/JGWwiki/KAGRA/Subgroups/DET/Meet/Agenda201401021?action=AttachFile&do=view&target=141021_aLog.pdf]

DetCharとしての更新は滞っている
10/15にメキシコで地震があったが影響なし


2.2 Interesting papers
======================

(端山) 
[http://arxiv.org/abs/1410.3852]
[http://arxiv.org/abs/1410.3835]

彼らの以前やっていた研究は
LISAで連星合体からの重力波が逆にノイズになる -> Binary Confusion Noise
それをsubtractして引き抜く
この研究によりMCMCが重力波業界で有意義だと認識され始める
LISAプロジェクトからNSAAが撤退したことにより、彼らはLIGOに合流した

今回の論文ではBayse統計を用いた
2. BayseLine
spectrum推定 -> LINEの特定について
間野さんにレビューしてもらう

1. BayseWave
重力波と検出器雑音を区別する方法を提案
Bayse統計を使っている
現状、非常に時間がかかるため全天探査は無理だが、
parameter estimationに用いられるだろう
端山さんがレビューを行う


3 daily work  
~~~~~~~~~~~~~~
HsaKAL開発状況

(端山)
filter周りを並列化しようとしている
計算時間の削減をしようとしている
(山本)自分でスレッドの振り分けなどができるのか?
(端山)可能、それをしないと使えるリソースを最大限利用しようとする

(端山)REPAというパッケージを用いている
サンプルコードはGitHUBのatticに置いてある
関数名の一部をs -> pで並列化できる・・・・が、簡単ではなかった

4 special topics
~~~~~~~~~~~~~~~~

各モニターの計算コストの再見積もり

4.1 MBLT
========
(浅野)
[http://gwwiki.icrr.u-tokyo.ac.jp/JGWwiki/KAGRA/Subgroups/DET/Meet/Agenda201401021?action=AttachFile&do=view&target=computationCost_asano.txt]

4kHz 100秒分のデータを解析するのに、MacBook airを用いて約25秒
1本のラインについて解析するのに、
(山本) 100本のラインがあると100倍かかる?
(浅野) おそらくもっと早くなるだろう
(端山) 情報が不足している
ラインが5本あるときで計算すれば良いだろう
非常に計算時間が早いだろうという印象
(横澤)Q値依存性はないのか?
(横澤)一番計算時間がかかるものを1度やれば良い

(浅野) IOをのぞくと20秒程度

(端山)周波数を分けて重力波探索が行われるだろう
20Hz~2kHzの間にいくつラインがあるのか?
100本抜くことを目標にして再計算してみて


4.2 NHA
=======

(上野)
[http://gwwiki.icrr.u-tokyo.ac.jp/JGWwiki/KAGRA/Subgroups/DET/Meet/Agenda201401021?action=AttachFile&do=view&target=ueno-detchar141021.pdf]

NHAの説明
FFTをして、周波数のあたりを付ける
コストファンクションを最小化するようにデータをcos関数でfittingする

たとえばラインについてfocusするともっと計算時間を早くできる
400Hzならサンプリングレートを落とし、シフトする数も多くできる
そうすると2分のデータを2分で解析できた (CPU 32コアの計算機で)

電源によるラインノイズ(60Hz)はしょっちゅう飛ぶので
NHAで追うのは意味があるだろう

4.3 SRMon/RayleighMon
=====================

(山本)
[http://gwwiki.icrr.u-tokyo.ac.jp/JGWwiki/KAGRA/Subgroups/DET/Meet/Agenda201401021?action=AttachFile&do=view&target=141014_DCMTG_yama.pdf]

見積もりよりも多く時間がかかっている
4000秒の解析は1200秒で終わる

見積もりでは、1秒あたり2^21の計算を行う (~2MHz)



4.4 Correlation Monitor
=======================

(譲原)
[http://gwwiki.icrr.u-tokyo.ac.jp/JGWwiki/KAGRA/Subgroups/DET/Meet/Agenda201401021?action=AttachFile&do=view&target=yuzurihara_result_measure_v3.txt]

(端山) 式にしてほしい

現状 32秒のデータを2channel解析するのに、3.7秒かかっている


4.5 間野
========
クラスターマシンの仕様
4core * 8 =32core
2.8GHz
Xeon E5-2680 cash 4Gb

shared memory 32Gb, HDD 5Tb

MCMC(nonparametric Bayesian clustering 26139個のglitch)
1000loop
40sec * 50 parameterの計算だと2000secかかる
32coreだと1.04minかかる


(端山)以前のVirgoの観測だとglitchの出現率は1秒あたり~1個
今回の計算にかかった時間をそれに焼き直すと
3時間のデータを1分で解析可能ということになる

(端山)64core欲しい
Virgoのdetcharマシンだと64core
 今、我々が持っているのは20core



4.6 提案
========

(横澤) さまざまなモニターで16秒のデータを1秒ずつに区切ってFFTをしている
事前にこれをやっておくという手はないか?

Detcharではデータが流れてくるものを加工してFrameとしてパッキングする
そこに1秒ずつにSFTしてパッキングしたchannelを作っておく