MacでVLCでNHKニュース

地デジの多重音声がいろいろと不思議実装なのは一部の界隈で有名ですが、MacのVLCでNHK総合のニュースの音が聞こえないのをどうにかした話。データは生TS 、udpでストリーミング。再生環境はMac OS X 10.6

DTV関係ツールのDTVアップローダ→up0243.zip が頼みの綱。このパッチをあてたVLCを自前でビルドするだけ。

まずはOSXCompileに書いてある手順でふつーにVLCがビルドできることを確認。MacPortsが何か悪さしていたようでライブラリのバージョンが云々言われてしまったので、アンインストールしてから再度インストール、gitだけ入れてあとはオフィシャルの仰せのままに。

ビルドできることを確認したら一度make cleanしてからパッチ当て、再ビルドで終了。

NHKニュースなら左チャンネルだけ再生すれば日本語のようで。

mapfan navii で usbgps2

地図も更新されず絶賛放置中なMapFan NaviiはIODATAのUSBGPS2を繋ぐと勝手にポート検出してくれるおせっかいステキ機能がついてるけれども、GPS分岐とかサスペンド時の再接続とかしてくれるGpsLogが使えないのでごにょごにょ。

mapfan navii のインストールフォルダにあるGpsEngine.dllをバイナリエディタで開いて 000269B9 の 43(ASCII値 ‘C’) を 44 (‘D’) に書き換える。レジストリにあるデバイス名を検索する部分をごまかしてありもしないデバイスを探しにいかせる(実在してるデバイスだったらどうなるかは知らないがIOのデバイスは他に持ってないのでキニシナイ)。

nicovideo mp4 iTunes

nicovideoから動画を落としてiTunesに入れるメモメモ

  • 落とすのはSafariStandで一発。mp4でもflvでもおk
  • flvの場合はMPEG StreamclipでExport to MPEG-4… で済ませる(手抜き)
  • flv→mp4で再生時間がおかしくなる場合がある模様。(該当ファイルはもとのflvをQTPlayer + Perian で読んだときも再生時間がヘン)で、ffmpegでエンコードする。-vpre defaultがカギのようで、
    ffmpeg -i input.flv -sameq -acodec libfaac -ab 256k -vcodec libx264 -vpre default output.mp4

    とすればOK。

  • mp4はそのままD&Dで放り込める。ダメなファイルもあるのでそのときは↓ (QuickTime Playerで再生できるのに iTunesで使えないとか詐欺だと思う)
  • 読めない原因は色々あるらしいが(参照:MyCometG3)ffmpegがあればなんでもできる。videoだけ変換すれば読めると信じて
    $ffmpeg -sameq -acodec copy -i input.mp4 -o output.mp4

こっそり

MTを4から5にしようとして大変な目にあった

結果だけ:MT4でエクスポートした記事をローカルのエディタでUTF-16として読み込み(で、コメントスパムを削除したら容量が90%オフになったのは秘密)、UTF-8にして保存。まっさらにして作成したMT5に新規blog作成してインポートする

MySQLの文字コードと戦うのは無理だった……

D21HW + Snow Leopard

MacBook Pro だと普通に動いたのに何故かAirだと動かない emobile のデータ通信カードさん。

ドライバのインストールをしても何も起こらないので当てずっぽうでやっつけてみた。と言ってもTerminalで以下のコマンドを打つだけ。

sudo kextload /System/Library/Extensions/HuaweiDataCardDriver.kext

一回認識されればあとは抜き差ししても大丈夫みたいです。

人工無脳

人工無脳とかつくってみたいなー、とか思ってみたり。*人工無脳の例:人工無能うずら(人工痴能)の部屋

で、考えたことつらつら

  • 単純な単語反応型なんて面白くないので、文脈くらいは読めるようにしたい(作る前からハードルを上げる)
  • 必然的に学習機能が必要
  • でもゼロから学習させるのも単調作業でつまらなそう(要件が増える)
  • じゃあネットにあるデータで学習させればいいじゃない(ありがち)
  • とりあえず形態素解析と係り受け解析して単語の共起度テーブルつくってある程度の文法規則から文を自動生成すればいいよね(ありがち)
  • でも2ちゃんねるとかtwitterとかがソースに混じると面倒なことになるなあ(思考が横道に)
  • 「wwww」とか「〜なう」とか文法的にはどんな位置づけなんだろ。wwwwは感動詞でいいのかしら(横道を突き進み始める)
  • そいえば「にょ」とか「だよもん」とかの語尾ってのも文法的に…(例が古い)
  • ネットにある文章ってのは教科書的な文法体系じゃ表現できないのかしら。そうでなくても日本語は曖昧な言語だし……(そろそろ本筋が見えなくなっている)
  • 文法規則まで自動で学習できるようになればいいんだけどなあ(妄想の肥大)
  • AAとかもめどいなあ。縦書きにセリフが入ってたりしたら……特定のフォントでレンダリングしたときの文字のx座標がある程度の範囲にある記号以外の文字の集合を文の候補として抽出して解析して意味がありそうなら採用、とかかなぁ……(なぜかソースとして2chを利用する前提で妄想している)
  • ソースの選択を慎重にしないとヘンな人格になりそうだなぁ……(別の脇道にそれた)
  • でもいちいち手動でソース選ぶとかやりたくないしなあ(多分正論だけどドメイン特定しない学習とか論文書けるレベル。たぶん)
  • 適当に学習させて会話の中で矯正するのがいいなあ。「どこでそんな言葉覚えてきたのっ」とか。あんまり矯正してないか(広がる妄想)
  • 「それはいい」とか「ダメ」とか会話の中で明示するのもアレだしなあ。やっぱり文脈から反応見て学習してほしいなあ(さらに広がる)
  • 伺かみたいなUIで撫でたりペシってしたり、っていう学習でもいいなあ(そろそろ収拾がつかなくなってくる)
  • どうせ伺か使うなら2つの違うシステムで漫談させながら学習ってのも面白そうだなあ(もう手に負えない)

……と妄想にふけってコードが一行も書けてない罠。このまま妄想だけで終わるに10垓ジンバブエドル。