ubuntu linux 18.04 (arm64)でqemu-user-staticとchrootでubuntu linux 16.04 (i386)とx86バイナリをエミュレーションで動かす。

sudo apt install qemu-user-static

これでqemuとchrootの設定までされる。

次にubuntuのベースイメージをダウンロードして展開。
http://cdimage.ubuntu.com/ubuntu-base/releases/

http://cdimage.ubuntu.com/ubuntu-base/releases/16.04.6/release/
#wget ubuntu-base-16.04.6-base-i386…
#tar xvjf ubuntu-base-16.04.6-base-i386…

sudo chown root:root ubuntu-base-16.04.6-base-i386
cd ubuntu-base-16.04.6-base-i386
cd usr/bin
sudo cp /usr/bin/qemu-i386-static .
cd ../..

arm64からqemu-user-staticでi386にchrootすると/etc/resolv.confがあってもなぜかdnsが解決できない。/etc/hostsにdnsレコードを書くとネットワーク系のアプリケーションが動く

sudo echo 91.189.88.152    archive.ubuntu.com >> etc/hosts
sudo echo 91.189.88.142    security.ubuntu.com >> etc/hosts

このままだとxtermが動かないので、

“ubuntu linux 18.04 (arm64)でqemu-user-staticとchrootでubuntu linux 16.04 (i386)とx86バイナリをエミュレーションで動かす。” の続きを読む

pythonのUnicodeDecodeError: ‘ascii’ codec can’t decode byte 0xe3 in position NN: ordinal not in range(128)に対処

以下のファイルを作成。

~/.local/lib/python2.7/site-packages/usercustomize.py

import sys
sys.setdefaultencoding('utf-8')

参考

macOS catarina とXquartzとubuntu linux 18.04でssh X11 forwarding

サーバーの/etc/ssh/sshd_configのX11Forwarding yesを有効にしてsshサーバーを再起動。

macOSにXquartzをインストール。
macOSを再起動。

Xquartzを起動。
Xquartzのメニューの[アプリケーション]の[ターミナル]を実行。
そのターミナルでssh -X <host>を実行。
(export DISPLAY=:0.0; xhost +;は不要)

ssh -Xしたリモートシェルでxtermを起動。
これでmacOS側にxtermが現れる。

音声認識エンジンJuliusを試す

見始めた動画に字幕が見当たらなかったので音声認識エンジンJuliusで英語のスピーチの文字起こしを試した(字幕ONはあとで見つかりました)。

英語のスピーチ Microsoft Ignite “Building Digital Resilience

実行ファイルはjulius-dnn (JuliusLib rev.4.4.2.1 (fast) windows版)。実行方法はgithubにあるQuick Runを参考にしてください。

今回、入力する音声はiPhoneでスピーチを再生し、音をイヤホンジャックからJuliusを入力待機させているパソコンにUSBオーディオアダプターで入力しました。

少しの文節を試したところ、このデフォルト設定と条件で英語の認識率は70%・・・くらい?

使い方の流れ

  1. ダウンロード
  2. サーバー用に起動ファイルを調整
  3. 音声入力デバイスを接続
  4. 起動
  5. ことば文字起こし結果の受信側を起動

1.ここからdictation-kit-4.5.zipをダウンロードして展開する

2.サーバー用に起動ファイルを調整する。「run-win-dnn.bat」をコピーして、「run-win-dnn-server.bat」というファイル名をつけてください。以下のように”-module”と”-input mic”を書き足して、”-demo”を消します。

.\bin\windows\julius.exe -C main.jconf -C am-dnn.jconf -charconv utf-8 sjis -dnnconf julius.dnnconf -module -input mic

3.音声入力デバイスを接続する。音声入力端子にマイクをつなぐか、音声ソースからの音声入力ケーブルをつないでください。

4.「run-win-dnn-server.bat」を起動してください。

5.ことば文字起こし結果の受信側を起動する。以下のページの記事のまん中あたりにあるPython側の通信制御プログラムをコピーして、「main.py」と名前をつけて起動してください。
※このとき、”host = ‘127.0.0.1’”のアドレスは「run-win-dnn-server.bat」を起動するパソコンのIPアドレスにしてください。
※Python側のプログラムがつながらないときは「run-win-dnn-server.bat」を起動しているパソコンのファイヤウォールで、julius.exeをファイヤウォールの例外に設定して「run-win-dnn-server.bat」を起動しなおして、Python側も起動しなおしてください。

Pythonと音声認識フリーソフトウェアjuliusの連携による音声の文字変換 | 知のマイニング (software-data-mining.com)

その他メモ

Blender2Hgimg4

blenderで作っているモデルをhgimg4でgploadするには、

blenderのマテリアルプロパティでマテリアルを作成しておいたfbxファイルか、daeファイルをGPB converter(HGIMG4ツール)でgpbとmaterialファイルに変換する。

※blenderのfbx出力のダイアログで拡大縮小を0.01にすると、blenderの1mがhgimg4のサイズ1と同じになります。