HMZ-T1とMDR-DS7500の両立
気付いたら約2ヶ月間忙しい日々が続いてたけど、さしたるトラブルもなく新しいラインも稼動しはじめたので、初仕事としては100点に近かったのかもな、と思ったりした。
その間HMZ-T1がちゃんと発売日に届いたり、でも忙しくて1日1本しか映画がみれなかったりしたわけだけど、今回こうして余裕ができてHMZ-T1とMDR-DS7500を同時に使えるようにしたので工作Wikiをちょっと補足したい。
結論としては工作Wikiを参考にしてバラし、以下の写真のようにイヤホン部品をハサミ等で切断すればよい。
HMZ-T1工作Wikiにも、もうちょっと長くてもよかったとあり、先人に倣って私もちょっと長くしたわけだけど、さらに言えば「最初のネジを残すくらいまで長くても良い」と思った。写真の長さでも問題はないけど、ネジのところまで確保すれば側面のカバーがネジ止めできる。まあ布か紙でも貼っておけばいいんだけど。
こうする事で同時装着は問題なくできるようになるし、音は別次元。最近は3Dコンテンツは消化しきってしまったので専ら2D映画ばかりだけど、これで映画を視聴するのはすごく楽しい。
本日の出来事
後輩やらお客さんと福井県への釣行。今年に入って3度目になるが、毎度悪天候でズタボロになりながら帰ってくる始末。当然の事ながらこれまでの釣果もゼロ。
そんな中今回は釣果ゼロ時の精神的被害を抑えようということで、福井新港から敦賀新港に場所変更しての釣行。
前日21時頃:退社
0時過ぎ:就寝
2時半:起床し出発
5時:敦賀新港に到着するも、先行する部隊より風が強すぎるとの連絡を受ける
7時:色々彷徨いつつ、結局松原というところに滞在する。
他の人たちは投げ釣り装備で釣行開始してたけど、私はライトゲーム用の装備だったし、とりあえず眠かったので車中で一眠り。
どうやら寝ている間に尺ギスやら小さいグレやアジ、尺キジハタ等をぱらぱらと釣っていた模様。そろそろ夕マズメにもなろうという時間に起きたので釣行を開始しようとすると、再度敦賀新港でリベンジしようということになった。
それでも相変わらず風は非常に強かったが風を背にしてメタルジグを投げつづけたところ、40センチくらいのサゴシをゲット。
その後ライントラブルにて終了。
今回の反省としては、強風でも敦賀はなんとかなるということと、やはりKガイドのロッドを持っていたほうが良いということ。今度はライントラブルの対策を立てた上で突堤の先端から釣ってみたいと思った。
倉庫マシンのHDD異常
FreeNAS8.0.1RC1にて稼動させているファイルサーバで以下のようなログが吐かれていた。
Device: /dev/ada1, 6 Offline uncorrectable sectors Device: /dev/ada1, Currently unreadable (pending) sectors
smartctlにて確認してみると
SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0 3 Spin_Up_Time 0x0027 145 143 021 Pre-fail Always - 9708 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 62 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 2 9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 622 10 Spin_Retry_Count 0x0032 100 253 000 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 100 253 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 59 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 41 193 Load_Cycle_Count 0x0032 187 187 000 Old_age Always - 40031 194 Temperature_Celsius 0x0022 119 107 000 Old_age Always - 33 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 6 198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 6 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 6 SMART Error Log Version: 1 No Errors Logged SMART Self-test log structure revision number 1 Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error # 1 Extended offline Completed: read failure 90% 607 1659864016 # 2 Extended offline Completed: read failure 90% 607 1659864016 # 3 Extended offline Completed: read failure 90% 606 1659864016 # 4 Extended offline Completed: read failure 90% 605 1659864016 # 5 Conveyance offline Completed without error 00% 1 - SMART Selective self-test log data structure revision number 1 SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS 1 0 0 Not_testing 2 0 0 Not_testing 3 0 0 Not_testing 4 0 0 Not_testing 5 0 0 Not_testing Selective self-test flags (0x0): After scanning selected spans, do NOT read-scan remainder of disk. If Selective self-test is pending on power-up, resume after 0 minute delay.
のように不良セクタが出ているみたい。
データはだいじょうぶなのか謎だけど
# zpool status pool: ZFS-POOL state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM ZFS-POOL ONLINE 0 0 0 raidz2 ONLINE 0 0 0 gptid/ae4906c5-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/ae9684ec-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/af2b4bbb-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/afbdff8f-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/b04cea05-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/b0e1b146-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 errors: No known data errors
とのことなので問題ないのだと信じておく。
さて、気分も悪いのでマシンをシャットダウンしてこのディスクを抜いて新しいものと差しかえてみる事にする。
-
-
- -
-
というわけで、まず異常を検知しているドライブのみひっこぬいてみた。
/# zpool status pool: ZFS-POOL state: DEGRADED status: One or more devices could not be opened. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Attach the missing device and online it using 'zpool online'. see: http://www.sun.com/msg/ZFS-8000-2Q scrub: none requested config: NAME STATE READ WRITE CKSUM ZFS-POOL DEGRADED 0 0 0 raidz2 DEGRADED 0 0 0 gptid/ae4906c5-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 6483663345112995382 UNAVAIL 0 0 0 was /dev/gptid/ae9684ec-d63c-11e0-9b18-14dae93d2f3c gptid/af2b4bbb-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/afbdff8f-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/b04cea05-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/b0e1b146-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 errors: No known data errors
さっきはONLINEだったステータスがDEGRADEDになっており、恐らく抜いたドライブがUNAVAILになっている。
この状態でLionからいつも通り共有してみても、なにも問題なくアクセスできる。すげえぜRAIDZ。
そんなわけで再度smartctlの結果
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0 3 Spin_Up_Time 0x0027 160 160 021 Pre-fail Always - 8991 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 12 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0 9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 24 10 Spin_Retry_Count 0x0032 100 253 000 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 100 253 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 10 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 9 193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 18 194 Temperature_Celsius 0x0022 125 119 000 Old_age Always - 27 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
新品ほやほや。
/# zpool status pool: ZFS-POOL state: DEGRADED status: One or more devices could not be opened. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Attach the missing device and online it using 'zpool online'. see: http://www.sun.com/msg/ZFS-8000-2Q scrub: none requested config: NAME STATE READ WRITE CKSUM ZFS-POOL DEGRADED 0 0 0 raidz2 DEGRADED 0 0 0 gptid/ae4906c5-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 6483663345112995382 UNAVAIL 0 0 0 was /dev/gptid/ae9684ec-d63c-11e0-9b18-14dae93d2f3c gptid/af2b4bbb-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/afbdff8f-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/b04cea05-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/b0e1b146-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 errors: No known data errors
本当は手順が逆だったかもしれないけど、この後メンテナンスのWEBページでは古いデバイスが表示されているので、それをリプレイスしてデタッチする。そしてEDITにて希望するプールのメンバにしてやるようにすればこのとおり。
# zpool status pool: ZFS-POOL state: ONLINE status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scrub: resilver in progress for 0h4m, 1.49% done, 5h11m to go config: NAME STATE READ WRITE CKSUM ZFS-POOL ONLINE 0 0 0 raidz2 ONLINE 0 0 0 gptid/ae4906c5-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 ada1p2 ONLINE 0 0 0 14.2G resilvered gptid/af2b4bbb-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/afbdff8f-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/b04cea05-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 gptid/b0e1b146-d63c-11e0-9b18-14dae93d2f3c ONLINE 0 0 0 errors: No known data errors
3TBが6発のRAIDZ2でデータ量は3TB程あって、およそ5時間程かかるらしい。
とりあえず一件落着。すべてWEB画面から作業できるので便利。
ウルトラマン第4話「大爆発5秒前」
こちらは初見のエピソード。いきなり原爆登場。
航跡
当時の子供らに「白い航跡」って通じたのか?と思うと同時に、「CUBE」のセリフの日本語訳で「船橋」って言葉が出てきたけど、初めて聞いたぞと思った事を思い出したりした。やはり水辺のシーンになるとセットのショボさが目立つし、船員のうなされ方とかがなんとも素人臭い演技ではある。
あいかわらず子供が鬱陶しい
ホシノ少年もあいかわらず邪魔だが、ミチコちゃんもこれまた鬱陶しい。所謂モンスターペアレント。
キャップが無茶苦茶
「君はなんとしても原爆を奪い返すんだ。わかったな」って。