読者です 読者をやめる 読者になる 読者になる

RaspberryPiにPhantomJSをインストールする

JavaScript コンピュータ 電子工作 開発 RaspberryPi

RaspberryPiにPhantomJSをインストールする

昔作ったPhantomJSのプログラムをRaspberryPiでも実行したいと思ったのですが、RaspberryPiのパッケージがなく、 ビルドにも数時間かかるということだったので諦めていました。そろそろ時間もできたのでインストールすることにしました。

PhantomJS | PhantomJS

ネットを探すと既にビルドしているものを公開している方がいらっしゃったので、そちらを使うことにしました。 自分でビルドするつもりでしたが、さすがに5時間とかかかると言われると厳しいです。

以下のサイトを参考にさせていただきました。ビルドしたバイナリも公開していただいているので大変ありがたいです。(バージョンは2.1.1なので新しいです!)

https://mecrazy.net/ja/2016/06/06/raspberry-pi%E7%94%A8%E3%81%ABphantomjs-2-1-1%E3%82%92%E3%83%93%E3%83%AB%E3%83%89%E3%81%97%E3%81%A6%E3%81%BF%E3%81%BE%E3%81%97%E3%81%9F/

他にも

www.miyakawa.link

github.com

こちらのサイトもあるんですが、少しバージョンが古かったので前者にしています。

インストールする

ビルドされたバイナリは以下にありますのでgitを使って取得します。

github.com

ビルド時に必要なパッケージも事前にインストールしていますが念のためということで。

$ sudo apt-get install build-essential g++ flex bison gperf ruby perl libsqlite3-dev libfontconfig1-dev libicu-dev libfreetype6 libssl-dev libpng-dev libjpeg-dev
$ git clone https://github.com/mecrazy/phantomjs-binaries.git
$ chmod 755 phantomjs-2.1.1-linux-armhf
$ sudo apt-get install fonts-ipafont
$ sudo ln -sf `pwd`/bin/phantomjs-2.1.1-linux-armhf /usr/local/bin/phantomjs

cloneしたディレクトリにあるbinディレクトリにバイナリがあります。phantomjsもあります(多分x86なバイナリのリンク?)が、今回使用するのはarm版のphantomjs-2.1.1-linux-armhfになります。これを/usr/local/bin/シンボリックリンクを作成します。これで準備完了です。

以下のようにコマンドを実行するとバージョン出ます。これでOKです。

$ phantomjs --version
2.1.1

サンプルっぽいものを実行してみる

PhantomJSはWebkitベースのHeadlessブラウザなので、googleのトップページにアクセスしてスクリーンキャプチャをしてみます。

//sample.js
var page = require('webpage').create();
page.open('https://google.com', function(status) {
  console.log("Status: " + status);
  if(status === "success") {
    //screen capture
    page.render('google.png');
  }
  phantom.exit();
});

実行すると、画面上にURLアクセスしたステータスを表示して終了します。 実行ディレクトリにgoogle.pngができていれば成功です。

$ phantomjs sample.js
Status: success
$ ls
google.png  sample.js

google.pngは以下のような画像になります。(フォントをインストールしてないと文字化けしますので注意です。)

f:id:ueponx:20170316133617p:plain

簡単な説明

ソースの一行目でブラウザオブジェクトを作成し

var page = require('webpage').create(); // オブジェクト生成

指定されたURL(https://google.com)にアクセスし、アクセスに成功したら画面イメージをキャプチャします。

page.open('https://google.com', function(status) { // URLへアクセス
  console.log("Status: " + status); // 実行のステータスをコンソール上に表示
  if(status === "success") { //アクセスに成功したら
    //screen capture
    page.render('google.png'); //スクリーンキャプチャする
  }
  phantom.exit(); //実行終了
});

説明になってないような気もしますが、サンプルなので…

おわりに

公開されたバイナリがあって圧倒的感謝・・・・!

http://cdn-ak.f.st-hatena.com/images/fotolife/g/gotocc/20101123/20101123074729.jpg

RaspberryPiでOpenCVを使ってみる【つまづき編】

RaspberryPi python コンピュータ 開発 opencv

RaspberryPiでOpenCVを使ってみる【つまづき編】

f:id:ueponx:20170226143214j:plain

やっと、OpenCVに手をだす感じになってきたのですが、即挫折させられるという運の無さ。 急いでいる人は以下の手順でOKです。

$ sudo apt-get install libopencv-dev
$ sudo apt-get install python-opencv
$ sudo apt-get install libgl1-mesa-dri
$ x11vnc -storepasswd
$ sudo mkdir /home/pi/.config/autostart/
$ sudo vim /home/pi/.config/autostart/x11vnc.desktop (設定ファイルの中身は下を参照)
$ sudo vi /boot/config.txt(設定ファイルの中身は下を参照)
$ sudo raspi-config(設定後再起動)

インストール作業

以前のエントリでも、opnecvの開発パッケージ、pythonopencvモジュールの2つはインストールしていますので、あえてやらなくてもいいのかなとは思いますがバージョンアップもあるかなということで行いました。

$ sudo apt-get install libopencv-dev
$ sudo apt-get install python-opencv

一ヶ月ほど前に入れたにも関わらず、バージョンアップが行われていたので時間がかかりました。

インストールを行ったOpenCVのバージョンの確認方法

インストールするとバージョンがあとからわからなくなることがあるのですが以下のファイルにバージョンが記載されています。

$ less /usr/include/opencv2/core/version.hpp
(略)

/*
  definition of the current version of OpenCV
  Usefull to test in user programs
*/

#ifndef __OPENCV_VERSION_HPP__
#define __OPENCV_VERSION_HPP__

#define CV_VERSION_EPOCH    2
#define CV_VERSION_MAJOR    4

#define CV_VERSION_EPOCH    2
#define CV_VERSION_MAJOR    4
#define CV_VERSION_MINOR    9
#define CV_VERSION_REVISION 1

(略)

/* old  style version constants*/
#define CV_MAJOR_VERSION    CV_VERSION_EPOCH
#define CV_MINOR_VERSION    CV_VERSION_MAJOR
#define CV_SUBMINOR_VERSION CV_VERSION_MINOR

#endif

この時点(2017/02/25)でのインストールではversionは2.4.9になっていたようです。

インストールでは難なく完了するので後はサンプルを動かすだけです。以前のエントリーでも画面表示は行っていませんでしたがUSBカメラからのキャプチャは行っていましたので、どちらかというとGUIっぽい表示にすることがメインのチェックとなります。

OpenCVのサイトに行けばサンプルも結構あるのでそれを編集しています。

カメラ画像をX上で表示する使用するサンプルcamera.py

#!/usr/bin/env python
# -*- coding: utf-8 -*-

import cv2.cv as cv
import time

cv.NamedWindow("camera", 1)

capture = cv.CaptureFromCAM(0)

# 画像サイズの指定
cv.SetCaptureProperty(capture,cv.CV_CAP_PROP_FRAME_WIDTH,320)
cv.SetCaptureProperty(capture,cv.CV_CAP_PROP_FRAME_HEIGHT,240)

while True:
    img = cv.QueryFrame(capture)
    cv.ShowImage("camera", img)
    if cv.WaitKey(10) > 0:
        break
cv.DestroyAllWindows()

「カチャカチャカチャ・・・ッターンッ!!」これで出来上がったぜいぇーいとなるはずだったんです。

実行時エラーがでました。

$ python camera.py
Xlib:  extension "RANDR" missing on display ":11.0".

(camera:31765): GdkGLExt-WARNING **: Window system doesn't support OpenGL.

お前の環境だとOpenGLに対応してね~から実行は無理というものでした。オゥフ。 これまでは画像のキャプチャのみを行っていたので表示系まではやっていなかったので気がついてイなかったみたいです。というかXを使っていなかったというのが正しいw。

今回はコンソール(Teraterm)の代わりにWindowsにデフォルトでインストールされている【リモートデスクトップ接続】を使っていました。これが原因なんだろうなあと思って、気が重くなりました。個人的には経験からLinux系の設定のツラミはほぼほとんどがX関係っていうことが多くキツイ目にあっていたので。

といっても、GUIの無い画像処理はありえないと思うので解決を模索します。

早速エラーメッセージ関係でググってみると以下の記事にあたりました。

Raspberry Pi • View topic - Enable OpenGL on Raspbian Jessie for OpenCV

内容としては「OpenGL系の対応ライブラリが入っていないのでインストールせよ」というものでした。 では早速インストールしてみます。

$ sudo apt-get install libgl1-mesa-dri

動いてくれ頼む!

$ python camera.py
Xlib:  extension "RANDR" missing on display ":11.0".

(camera:31765): GdkGLExt-WARNING **: Window system doesn't support OpenGL.

変わっていねえ…(一部の数値とか変わるみたいですが、キャプチャ忘れました)

作戦変更へ

どうも以前入れたVNCサーバであるTightVNCserverがX接続すると別のディスプレイ接続環境を生成して、接続を行うという特徴があるというものだったので、純粋にハード的なXではなくソフトウエア上で動いている(表現がおかしいが)Xということだったようです。

X環境は基本設定をしないと共有されるはずですが、それがTightVNCserverにはなかったので若干不思議ではあったのですが、なんとなく理解できました。

そこでRaspberryPiのVNCサーバを

tightvncserver から x11vncに変更することにします。

X11vnc - ArchWiki

一応、ぐぐってみるとと実績があるようでした。

機能がバッティングしていることも考えてアンインストールしてからインストールを行っています。

$ sudo apt-get remove tightvncserver
$ sudo apt-get install x11vnc

インストールは全くトラブルなく終了しました。

x11vncの設定

以下のサイトが詳しく乗っていたので参考にしました。

www.1ft-seabass.jp

流れとしては

  • vnc接続用のパスワード設定
  • vncserverの起動
  • vncviewerからの接続

となります。

それが完了したら

*自動起動を設定

を行います。

vnc接続用のパスワード設定

vncではユーザという考え方以外にもvnc用のパスワードが存在しています。そのパスワードを作成することになります。

$ x11vnc -storepasswd
Enter VNC password:
Verify password:
Write password to /home/pi/.vnc/passwd?  [y]/n y
Password written to: /home/pi/.vnc/passwd

このコマンドで/home/pi/.vnc/passwdにパスワード情報が生成されます。このパスがパスワードファイルのデフォルト場所のようです。

vncserverの起動

後はVNCサーバを起動しますがテストであれば

$ x11vnc -usepw

の実行でいいかなと思います。オプションの-usepwは最初に設定したパスワードを使用するという宣言になります。

起動が正常にできて、このままずーっとVNCサーバを起動状態にする場合には以下の様に実行します。

$ x11vnc -usepw -forever

今回こそはとおもったんですが、失敗しました。

エラーメッセージの内容としては「VNCからXのディスプレイ:0に接続できないです」(意訳)というものでした。

ここからが苦痛でした。

エラーの内容からするとXがどうも立ち上がっていない様子。 しかし、HDMIを接続するとXは立ち上がりログインもできる。

そこで実験としてraspi-configコマンドでCLI環境とし、HDMIを接続しない状態でターミナルを2つ立ち上げて、一つでstartxを起動すると無事に起動しました。(WindowManegerはない状態ではあります。)そのあとにVNCServerを起動するとエラーは発生せず5900ポートで接続してほしい旨のメッセージがでました。

ここで仮説を立ててみました。 HDMIモニターを繋いでいるときにはXが起動している、RaspberryPiはHDMIを繋いでいないとコンポジット側に接続を替えるという仕様だったようなきがするので、強制的にHDMI出力をするモードに させてしまえばXは勝手に起動してくれる?と思い、/boot/config.txtを編集することを試してみました。

$ sudo vim /boot/config.txt

ファイル中ほどにある以下の部分のhdmi_force_hotplug=1のコメント化を解除します。

/boot/config.txtの変更前

(略)
# uncomment if hdmi display is not detected and composite is being output
# hdmi_force_hotplug=1
(略)

/boot/config.txtの変更後

(略)
# uncomment if hdmi display is not detected and composite is being output
hdmi_force_hotplug=1
(略)

ようやくこれでXは自動で起動してくれる様になりました。(これでほぼ1日潰れました) 後は前述のコマンドでVNCServerを起動します。

$ x11vnc -usepw
26/02/2017 13:29:15 -usepw: found /home/pi/.vnc/passwd
26/02/2017 13:29:15 x11vnc version: 0.9.13 lastmod: 2011-08-10  pid: 5984
26/02/2017 13:29:15 XOpenDisplay("") failed.
26/02/2017 13:29:15 Trying again with XAUTHLOCALHOSTNAME=localhost ...
26/02/2017 13:29:15

(略)

The VNC desktop is:      raspberrypi:0
PORT=5900

(略)

そしてリモートデスクトップ接続からRaspberryPiに接続、xrdp経由でVNCに接続となります。 注意点としては

  • 接続後のモジュール選択を【vnc-any】
  • IPには接続する【RaspberryPiのIPアドレス
  • portにはVNCServerの起動時に指定された【ポート番号(初期値は5900)】

を設定することになります。

ログイン画面のダイアログは以下の様になります。

f:id:ueponx:20170226132624j:plain

ここまできたら後は、目的のサンプルプログラムを実行してみます。

f:id:ueponx:20170226133643j:plain

うまく実行でき、やっと第一歩が踏み出せました。

後は自動起動の設定となります。

自動起動設定

まず、/home/pi/.config/autostart/というディレクトリを作成し、そのフォルダの中にx11vnc.desktopというファイルを作成します。

$ sudo mkdir /home/pi/.config/autostart/
$ sudo vim /home/pi/.config/autostart/x11vnc.desktop

x11vnc.desktop

[Desktop Entry]
Encoding=UTF-8
Type=Application
Name=X11VNC
Comment=
Exec=x11vnc -forever -display :0 -rfbauth /home/pi/.vnc/passwd
StartupNotify=false
Terminal=false
Hidden=false

続いてはraspi-configの設定をします。前述の設定ではログインしないと自動設定が行われないので自動でログインする設定にします。セキュリティとしては微妙ですが今回は目を瞑ります。

raspi-configを起動して【3. Boot Options】を選択

f:id:ueponx:20170226140556j:plain

画面が切り替わったら【B1. Desktop / CLI】を選択

f:id:ueponx:20170226140610j:plain

画面が切り替わったら【B4. Desktop Autologin Desktop GUI. automatically logged in as ‘pi’ user】を選択

f:id:ueponx:20170226140627j:plain

設定が終わったら再起動すると、リモートデスクトップから即ログインができるようになっています。

おまけ

リモートデスクトップ接続の画面が狭くなりますが、先程編集した/boot/config.txtに解像度のパラメータもありますので、これを変更することで広くすることができます。

sudo vi /boot/config.txt

/boot/config.txtの変更前

(略)
# framebuffer_width=1280
# framebuffer_height=720
(略)

/boot/config.txtの変更後

(略)
framebuffer_width=1280
framebuffer_height=720
(略)

これで1280*720の解像度で起動が行われます。

f:id:ueponx:20170226143214j:plain

おわりに

思った以上につまずいてしまって泣けましたが、これでもう障壁はないかなと思う(と思いたい)ので、引き続きOpenCVもやっていきたいと思います。

StartupWeekend豊橋に行ってきました

勉強会

StartupWeekend豊橋に行ってきました

2/17~19に開催されたStartupWeekend豊橋に参加してきました。 色々と噂を聞いているStartupWeekendだったのでかなりの不安がありました。

swtoyohashi.doorkeeper.jp

Startup Weekend (以降SWと略 )は、週末の3日間を利用してアイデアを形にするための方法論を学びながら実践する、スタートアップ体験イベントです。このワークショップは2009年に米国で始まり、これまで全世界700都市で1,500回以上にわたって実施されてきました。Startup Weekendは初日の夜、参加者のアイデアの発表から始まります。そしてハスラーハッカー・デザイナーでチームを組み、3日目の午後までに必要最小限のビジネスモデルを一気に作り上げます。ハスラーは顧客開発を、ハッカーは機能の開発を、デザイナーは使いやすいデザインを担当します。

一日目

仕事を早退して豊橋に向かいました。名古屋から豊橋まではそんなに遠く無いだろうと思っていたんですが、意外とありましたね。電車居眠りをしながら豊橋に到着。早めについたので会場近くをぶらぶらしようと思っていたら道を間違って会場と違う方向に。 そんなこんなありながら、会場には時間通りに到着。今回は初めての参加だったので、かなり挙動不審気味に会場に入りました。一応、ハッカーとして参加です。

会場はトライアルビレッジさん。 個人的にはかなり好きな雰囲気のコワーキングスペースです。

trialvillage.net

f:id:ueponx:20170221235754j:plain

f:id:ueponx:20170221235845j:plain

初日は交流会・ピッチ・チーム形成・作業開始でした。基本、仕事はボッチでやるほうが捗るタイプなので初対面の人と喋るときは挙動不審だったかなと思います。初回のピッチでは2つのキーワードを使ってグループでアイディアを練るというものでした。自分たちが選んだのは「ペンギン」と「e-sports」でした。

流石にかなりキーワードとしては難しかったので、ペンギンが動くことをe-sportsにするようなことを言っていたのですが、苦し紛れで「けっきょく南極大冒険」のネタを出して終わる失態に終わりました。 (個人的には「夢大陸アドベンチャー」のほうが好きです。)

その後、個人のアイデアピッチをいうのですが、イケアイデア(イケてるアイデア)になることもなく他の方のアイデアに賛同してチームを結成。チームのアイデアはダイエットをしたらその分お金がもらえるというようなものでした。ダイエットは継続しにくいので、何らかのベネフィットがあれば継続できるだろうというものだったので、自分のようなデブに優しい企画だなと思って参加しました(そんな意図でなかったらチームのみなさんすみません。)

このビジネスに関してアンケートを取らないとなあということでGoogleフォームでアンケートをとるかなと思っていたところ、有料サービスのほうがいいっすよという助言があり一件あたり50円で100件分をやってみました。1.5時間で速攻でデータが取れるのはさすがにカルチャーショック。社内研修ではこういうときは、統計サイトを見ましょうという感じなんですが、こうなると予想の域が多くなってしまう印象でした。少しのコストで欲しい時に短時間でこういうことができるのは時代はこっちに向かってるのかなと思えるし、お金って偉大だなという気持ちにもなりました。

いろいろ話あっている間に終電近くになってしまったので、名古屋へ帰宅。正直今から思えばこの選択は体力的な問題でNGでした。

二日目

終電近くだったので24時ごろ家に帰宅し、7時ぐらいに起床。一時間かけて会場へ。正直イベントを頑張るなら近くに宿泊するか、最寄りの会場のイベントに出ましょう。

今日のメインの作業は顧客開発ということになります。アンケートでもいいんですが、さすがに懐にはダメージがあるので、屋外で通りゆく人に話しかけてヒアリングへ。 豊橋駅の近辺ということで人通りもかなりあり、ヒアリングもいけそうな感じですが…心折れた。終わってからの感想ですが、駅の近くで人に話を聞くのは向きません。それは駅に基本経由地で、目的地への移動したいからかもしれません。(話を聞く経緯を話す暇すらありません。)

その後、折れた心でテニスクラブにいってヒアリングにいきましたがここではみんな話を聞いてくれました。目的地についている人に話を聞くとうまくいくのではないでしょうか。(仮説)

15人ほど話をきいて会場へ。(この時点でかなり疲れていた。)2チームに分かれていたので30名ほどの意見はもらえていたと思います。

ここまでの検討から、ダイエットからボディービルダー企画へ方針変更。ボディビルダーの運動の効果や怪我を防止するというようなフィットネスウェアです。具体的にはパンプアップすると色が変わって、運動効果を可視化して見えるという感じのものになります。(企画を考えながら頭の中にアドンとサムソンが飛んでました。)

その後、筋肉を鍛えている人が多そうだということで、豊橋武道館でヒアリングへ。ベンチプレスやマシーンをつかっている数人に話を聞くことができました。

みんな基本寡黙にトレーニングしていました。その中でなんとか意見をもらえました。

  • 「そこそこトレーニングしている人は効果がある程度わかるので需要はちょっと少ないかもしれない」
  • 「見せるために筋肉を鍛えるようなボディビルをやっている人ならそこまで追い込むので考えられる」

というような話でした。なるほど。

大体の目処がたったので2日目終了。この時点でテンションは結構落ちていましたが、なんとなく目処が立ってる気になっていたので、持ちこたえることはできました。(話に聞いていたのは「これか!」って感じ)

疲れたときにはブラックサンダーです。

f:id:ueponx:20170222000015j:plain

さすがに歩き回ったり話あったりしていたので非常に疲れましたが、この日は会場の近くで宿泊することにしていたので少し楽でした。同じイベントに来ていた方と相部屋で宿泊。

最終日

相部屋の人と「仮面ライダーエグゼイド」で気合を入れて会場へ。

最終日はピッチにむけてのラストスパートなんですが、今回はフィットネスウェアのプロトタイプができていたのでみんなそっちに目が向いしまっていたような気がします。

↓パンプアップすると色が変わるサポータのプロトタイプ

f:id:ueponx:20170222000543j:plain

コーチ陣にはいいアドバイスももらって、ブラッシュアップしていくのはかなり楽しかったです。やっぱりピッチは練習ですね。たくさん練習していてもうまくいかないので、練習しすぎるぐらいのほうがいいと思います。後もっと、コーチ陣に話しを聞いてもらったほうがよかったような気もします。

実際のピッチでは審査員の方にかなりインパクトは与えられたんですが、商品の説明が今ひとつだったようで結果は思った風にはなりませんでした。 でも、終わった後は充実感を得られたような気がします。

これまでも会社でこういう研修はありましたが、今回のほうがやり遂げた感と、充足感が半端ないと思います。終わった後のドリンクも美味しかったです。

いろいろありましたが、慣れによるテクニックもある感じなのかもなという気もしたので何回かはチャレンジしてみたいですね。

コーチ陣の方々、審査員の方々、運営の方々、そしてファシリテーターのマツモトさん、本当にありがとうございました。あと今回のイベントで同じチームの方々本当に有難うございました。今度お会いするときはもう少し成長している…と思いますのでまた楽しみましょう!

終わってみて

会社の似たような研修はそれなりにあるんですが、同じようなことをやっているはずなのになぜここまで気持ちに違いがあるのかなと考えてみました。

  • スピード感
  • 上下関係の無さ
  • なんでもあり
  • イデアより行動

この4つが大きいのかなという印象です。会社に戻って他の誰か(やる気があるひとに限る)に行ったほうがいいよと勧めたいです。

「次こそはもっといいのやろう!」という気持ちで結びたいと思います。

日曜日の中日新聞東三河版)に載っていたみたいです。

f:id:ueponx:20170222000140j:plain

RaspberryPiでも消臭力してみた

RaspberryPi JavaScript node.js コンピュータ 開発 電子工作

RaspberryPiでも消臭力してみた

毎回、ダメなパターンのエントリですが、今回はそれに輪をかけて駄目なタイトルになっています。

最近、Amazon Dash Buttonを使ってみたくなったので購入を考えていました。ただ、本体にくっついているデザイン面が日用品ばかりで今ひとつ気が乗らず、購入までには至りませんでいた。この時点で正当な使い方は考えておらず、ネット情報でAmazon Dash Buttonを押してWebHookを行ったりできるネタがあったので、自分でもぜひやってみようと思っていました。

あとでネットの情報を読んでいてわかったこととしては、構造それなりなのに500円と安価で、少し溜まったAmazonポイントで購入できるのもいいなと思っています。実質はものを買えば500円割引になるので、そっちのほうがオトクなんですけど。

中身の詳しい内容は以下が詳しかったです。

itpro.nikkeibp.co.jp

1週間ほど考えて、やっと購入するものを決定しました。

ムーニーと迷っての購入です。決しておむつプレイが好きなわけではないのであしからず。

ネット情報ではDasherというnode.jsのモジュールを使っている情報が多かったのですが、これは以下のnode-dash-buttonの処理をWebhookに特化したラッパーのようですので、自分はRaspberryPiのコマンドなどを実行したかったので、オリジナルのものを使うことにしました。

github.com

IFFTとかSlackへなにかを行うのであればDasherのほうが便利です。

github.com

node-dash-buttonをインストールする

上記のリンクからreadme.mdのInstallation Instructions節で方法が書かれています。

# dependancy on libpcap for reading packets
$ sudo apt-get install libpcap-dev
$ npm install node-dash-button

これでいいようです。…が。

自分の環境では少し気になっていることがありました。そもそもnode.jsはデフォルトのRasbianではバージョンが古いため、nvmをインストールすることでバージョンを上げていました。デフォルトのバージョンではnode-dash-buttonは動作しないようです。

uepon.hatenadiary.com

ユーザからはこれで問題はありません。 しかし、インストール時に使用しているlibpcap-devは、管理者権限でないとこれを使用したプログラムは動作しません。(sudoをつける必要があるということです。)sudoで呼び出されるnode.jsはnvmでインストールしたバージョンのものは適応されず、デフォルトのものが呼び出されてしまいます。(pathなどの環境が異なるので致し方ないのですが)

そこで、根本的にはバージョンアップをすることにしました。 Dasherのreadme.mdに

note Raspberry Pi users may need to update node arm which will automatically remove nodejs-legacy. Credit @legotheboss

なる記載があり以下のコマンドでnodeを比較的新しいバージョンに変更できます。

$ wget http://node-arm.herokuapp.com/node_latest_armhf.deb 
$ sudo dpkg -i node_latest_armhf.deb
$ $ node -v
v4.2.1

これで、比較的新しいnode.jsが準備でき(node.jsは2017/02/18現在v6.9.5まで来ているようですので気休めなのかもしれませんが、デフォルトのバージョンよりはいいと思います)、node-dash-buttonの利用ができるようになりました。 あとはnode-dash-buttonをインストールする処理を行うことになります。

$ sudo apt-get install libpcap-dev
$ npm install node-dash-button

これでOKです。

DashButtonの設定を行う

以下のページのボタンセットアップ節を見てください。このページが分かりやすかったと思います。

qiita.com

具体的には、Dash ButtonのWi-Fi設定を行った後に、ボタン押下時に注文する商品を選択する画面でキャンセルしましょう。(商品との紐付けをしないようにする点) 商品と紐付けさえ行わなければ基本的には注文はされません。(buttonを押すとエラーが発生し、白色のLEDの点滅後に赤いLEDが点灯します。)

後はnode-dash-buttonの設定と実行になります。

node-dash-buttonの設定

node-dash-buttonはarpパケットを受け取ってその中にあるMACアドレスを判別して処理を行うので、入手したDashButtonが通信するときに使うMACアドレスを取得する必要があります。node-dash-buttonにはそのMACアドレスを取得するプログラムも含まれています。(Dasherモジュールにもこのプログラムが含まれています。)

$ cd node_modules/node-dash-button
$ sudo node .bin/findbutton
Watching for arp & udp requests on your local network, please try to press your dash now
Dash buttons should appear as manufactured by 'Amazon Technologies Inc.'
Possible dash hardware address detected: XX:XX:XX:XX:XX:XX Manufacturer: Amazon Technologies Inc. Protocol: udp
Possible dash hardware address detected: XX:XX:XX:XX:XX:XX Manufacturer: Amazon Technologies Inc. Protocol: arp

実行後にボタンを押してください。Amazon Technologies Inc.のベンダネームとしてXX:XX:XX:XX:XX:XXというような形でMACアドレスが取得されます。(MACアドレスは伏せ字にしていますので、適宜読み替えてください。)

このMACアドレスをトリガーにして処理を実行するすることになります。

node-dash-buttonの実行

node-dasu-buttonモジュールをインストールしたディレクトリで以下のようなスクリプトを作成します。

var dash_button = require('node-dash-button');
var dash = dash_button("XX:XX:XX:XX:XX:XX", null, null, 'all'); //address from step above
dash.on("detected", function (){
    console.log("omg found");
});

MACアドレスの入ったarpパケットを検出するとdetectedイベントを検出して処理を実行します。このスクリプトの場合にはconsole.log("omg found");の処理が実行されます。この処理を別のものにすることで、buttonを押すと色々な処理が行える様になります。

node-dash-buttonで検出した際にコマンドを実行する

node.jsからシェルコマンドを実行する方法としては以下を参考にしました。

tkybpp.hatenablog.com

sudo環境での実行なのでpathが心配だったのですが、特に問題はなかったみたいです。 例えば実行するディレクトリのファイルを取得するlsコマンドを実行するには以下のように記述します。

const execSync = require('child_process').execSync;
const result =  execSync('ls -la ./').toString();
console.log(result);

node.jsは非同期実行なので同期的な実行にしたほうがわかりやすくなるかなとは思いますのでこちらを使用しました。

スクリプト名をnode dash-button_shell.jsした場合

const dash_button = require('node-dash-button');
const execSync = require('child_process').execSync;

var dash = dash_button("XX:XX:XX:XX:XX:XX", null, null, 'all'); //address from step above
dash.on("detected", function (){
    var result =  execSync('ls -la ./').toString();
    console.log(result);
});

このようになります。これを実行すると

$ sudo node dash-button_shell.js
omg found
合計 656
drwxr-xr-x  3 pi pi   4096  215 09:40 .
drwxr-xr-x 45 pi pi   4096  220 23:33 ..
-rw-r--r--  1 pi pi    204  215 01:10 dash-button.js
-rw-r--r--  1 pi pi    341  215 09:40 dash-button_play.js
-rw-r--r--  1 pi pi    336  215 09:23 dash-button_shell.js
-rw-r--r--  1 pi pi    348  215 09:32 dash-button_talk.js
-rwxr--r--  1 pi pi    503  215 09:27 jtalk.sh
drwxr-xr-x  4 pi pi   4096  215 01:05 node_modules
-rwxr--r--  1 pi pi 635436  28 23:00 riki.wav

うまくカレントディレクトリのファイル一覧を取得できています。気にしていた実行pathの問題も問題はなさそうです。

node-dash-buttonでボタンを押したら【消臭力】の音声ファイルを鳴らす。

音声を鳴らすコマンドはaplayで行えるので今回は慣らしたい音声ファイルriki.wavとして鳴らしてみます。

const dash_button = require('node-dash-button');
const execSync = require('child_process').execSync;

var dash = dash_button("XX:XX:XX:XX:XX:XX", null, null, 'all');
dash.on("detected", function (){
    var result =  execSync('aplay riki.wav').toString();
});

これでOKです! 「しょ~しゅ~りき~♪」どこでもミゲルくんが歌ってくれる・・・素敵です!

node-dash-buttonで検出した際に音声合成で言葉を話す

以前、Open JTalkを使いましたので、今回もそこで作成したshを使用することにします。

参考: uepon.hatenadiary.com

今回使用するシェルスクリプトは以下のようなものです。(ファイル名はjtalk.sh

#!/bin/bash

#HTSVOICE=/usr/share/hts-voice/nitech-jp-atr503-m001/nitech_jp_atr503_m001.htsvoice
HTSVOICE=/usr/share/hts-voice/mei/mei_normal.htsvoice

voice=`tempfile`
option="-m $HTSVOICE \
  -s 16000 \
  -p 100 \
  -a 0.03 \
  -u 0.0 \
  -jm 1.0 \
  -jf 1.0 \
  -x /var/lib/mecab/dic/open-jtalk/naist-jdic \
  -ow $voice"

if [ -z "$1" ] ; then
  open_jtalk $option
else
  if [ -f "$1" ] ; then
    open_jtalk $option $1
  else
    echo "$1" | open_jtalk $option
  fi
fi

aplay -q $voice
rm $voice

node.jsからこのスクリプトを呼び出すことになるので以下のようなスクリプトを記述します。

const dash_button = require('node-dash-button');
const execSync = require('child_process').execSync;

var dash = dash_button("XX:XX:XX:XX:XX:XX", null, null, 'all');
dash.on("detected", function (){
    console.log("omg found");
    var result =  execSync('./jtalk.sh \'こんにちは\'');
});

ボタン一つで話したい音声が話せます。す・て・き(うっとり)

蛇足

今回はnode.jsを使用していましたが、通信時のarpパケットさえ捉えられればよいのでtcpdumpでも同様の処理を行えます。というか両者ともlibpcapを使っているのであれば同様なことが可能です。

まずは、libpcapを使用するtcpdumpをインストールします。

$ sudo apt-get install tcpdump

インストールが終わったら以下のようなスクリプトを作成します。 ファイル名はbutton.shとしました。

#!/bin/bash
tcpdump -i wlan0 -e | while read line
do
    if [[ $line = *XX:XX:XX:XX:XX:XX*ethertype\ ARP* ]]; then
        echo "button pressed"
    fi
done

XX:XX:XX:XX:XX:XXはDashボタンのMACアドレスを設定してください。 このシェルスクリプトは指定されたMACアドレスのパケットを受信したら標準出力にbutton pressedという表示を行うものになります。 実行は以下のように行います。(ファイルの編集が終わったらchmodで実行権限を与えてください。)

$ sudo ./button.sh
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on wlan0, link-type EN10MB (Ethernet), capture size 262144 bytes
button pressed
^C74 packets captured
75 packets received by filter
0 packets dropped by kernel

(Ctrl-Cで処理を中断していますので一回となっていますが、基本は無限ループになります。)

おわりに

無事に同一のWi-Fiエリアであれば、ミゲルくんが歌ってくれる素敵な家になりました。それにしても、Amazon Dash Buttonはこんな価格で出してもいいもんなんでしょうか?

難点を上げるとしては、ボタンを押してからARPパケットの送出するまでの反応が遅いかなと思います。まあ、値段からみれば十分問題のない範囲ですけどね。

あとで動画を追加する予定です。

RaspberryPiでUSB接続のWebカメラを使ってみる

RaspberryPi コンピュータ python 電子工作 開発

RaspberryPiでUSB接続のWebカメラを使ってみる

以前はRaspberryPi専用のカメラモジュールを接続していました。

uepon.hatenadiary.com

今回は一般に販売されているUSB接続のWebカメラを接続してみます。

家には2つのWebカメラがありました。

www.logicool.co.jp

www.microsoft.com

ロジクールのものはHDでの動画撮影もできてコンパクトに折りたためるのでなかなかいい感じです。 MicrosoftのLifeCamもカメラは悪くないのですが、足の部分のラバーっぽいのが固定しにくかったり、劣化したりしそうなので微妙です。こちらは720pでの撮影ができます。

今回はこちらのブログを参考にしてみました。

blog.livedoor.jp

カメラを接続してみる

とりあえず、そのまま接続してみます。

以下がUSBカメラを接続する前のlsusbの状態です。

$ lsusb
Bus 001 Device 004: ID 0411:01ee BUFFALO INC. (formerly MelCo., Inc.) WLI-UC-GNM2 Wireless LAN Adapter [Ralink RT3070]
Bus 001 Device 003: ID 0424:ec00 Standard Microsystems Corp. SMSC9512/9514 Fast Ethernet Adapter
Bus 001 Device 002: ID 0424:9514 Standard Microsystems Corp.
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub

キャプチャデバイスも存在していません。

$ ls /dev/video*
ls: /dev/video* にアクセスできません: そのようなファイルやディレクトリはありません

接続すると以下のような状態に変化します。

【hd-webcam-c615の場合】

$ lsusb
Bus 001 Device 005: ID 046d:082c Logitech, Inc.
Bus 001 Device 004: ID 0411:01ee BUFFALO INC. (formerly MelCo., Inc.) WLI-UC-GNM2 Wireless LAN Adapter [Ralink RT3070]
Bus 001 Device 003: ID 0424:ec00 Standard Microsystems Corp. SMSC9512/9514 Fast Ethernet Adapter
Bus 001 Device 002: ID 0424:9514 Standard Microsystems Corp.
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub

以下が追加されます。

Bus 001 Device 005: ID 046d:082c Logitech, Inc.

接続して認識されると

$ ls /dev/video*
/dev/video0

ビデオキャプチャバイスも生成されています。

【ifecam-cinemaの場合】

$ lsusb
Bus 001 Device 007: ID 045e:075d Microsoft Corp. LifeCam Cinema
Bus 001 Device 004: ID 0411:01ee BUFFALO INC. (formerly MelCo., Inc.) WLI-UC-GNM2 Wireless LAN Adapter [Ralink RT3070]
Bus 001 Device 003: ID 0424:ec00 Standard Microsystems Corp. SMSC9512/9514 Fast Ethernet Adapter
Bus 001 Device 002: ID 0424:9514 Standard Microsystems Corp.
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
$ ls /dev/video*
/dev/video0

以下が追加されています。デバイスナンバー(Deviceの部分の数字)が連番になっていませんが、抜き差しするとこの部分が変更されるようです。

Bus 001 Device 007: ID 045e:075d Microsoft Corp. LifeCam Cinema

ともに正常に認識されている様です。

ちなみに両方を接続すると以下の用になります。

$ lsusb
Bus 001 Device 006: ID 045e:075d Microsoft Corp. LifeCam Cinema
Bus 001 Device 005: ID 046d:082c Logitech, Inc.
Bus 001 Device 004: ID 0411:01ee BUFFALO INC. (formerly MelCo., Inc.) WLI-UC-GNM2 Wireless LAN Adapter [Ralink RT3070]
Bus 001 Device 003: ID 0424:ec00 Standard Microsystems Corp. SMSC9512/9514 Fast Ethernet Adapter
Bus 001 Device 002: ID 0424:9514 Standard Microsystems Corp.
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
$ ls /dev/video*
/dev/video0  /dev/video1

Xの環境で使用してみる。

まずはLogicoolのhd-webcam-c615を接続してテストをしてみます。(これが今回の混乱の原因でした。)

Xの環境でカメラが使用できるか確認します。

カメラの確認するソフトは色々ありますが、今回はguvcviewを使用してみました。

インストールは簡単で

$ sudo apt-get install guvcview

でOKです。あとは

$ guvcview &

で起動して、以下のように表示されていればOKです。

f:id:ueponx:20170122150741j:plain

動作に全く問題はありません。昔はともかく、最近のカメラはHD画質も行けるため、良い画質です。

以前のエントリでKINECTを使用していましたが、そのときに使用したcamoramaでも同様です。

$ camorama -d /dev/video0 &

uepon.hatenadiary.com

f:id:ueponx:20170122154355p:plain

pythonからOpenCV経由でキャプチャしてみる

実際にはpythonからのキャプチャを行いたいのでOpenCVのインストールを行います。KINECTのエントリでもインストールしていますが、復習です。

$ sudo apt-get install python-opencv

これでインストール完了です。 最近知ったのですが、モジュールのインストールの確認だけであれば、わざわざインタラクティブシェルを起動しなくても、以下のようなコマンドで問題無いようです。

$ python -c 'import cv2'

あとはpythonからキャプチャを行います。

$ python
Python 2.7.9 (default, Sep 17 2016, 20:26:04)
[GCC 4.9.2] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> import cv2
>>> c = cv2.VideoCapture(0)
>>> r, img = c.read()
>>> cv2.imwrite('capture.jpg', img)
True
>>>

一応、Trueが返されているので成功してそうです。キャプチャしたphoto.jpgを 確認すると

f:id:ueponx:20170122160412j:plain

あれ、真っ黒?

処理もデバイスもうまく動作しているのですが、何故かキャプチャがうまくいかないようです。 とりあえず、インタラクティブシェルでは特定が難しいのでプログラム化します。

カメラ特有の設定値、解像度変更、もしかして非同期的な処理があってファイルI/Oが終わるまえに終わってしまったなどを 考慮してコーディングして確認をしてみました。

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import cv2

c = cv2.VideoCapture(0) #1 
r, img = c.read() #2
cv2.imwrite('capture.jpg', img) #3
c.release() #4

このファイルでも画像は真っ黒のままでした。予想としては#2の処理が遅くなっているのかなと思い、OpenCVの処理を行っている各行間にtime.sleep(3)を挿入してみたのですが、やはり結果は同じでした。処理に時間がかかっていて問題があるというわけでは内容です。

そこで、ダメ元で以下のように

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import cv2
import time

cap = cv2.VideoCapture(0)
while(cap.isOpened()):
    print('capture process')
    cap.read()
    r, img = cap.read()
    path = 'capture.jpg'
    cv2.imwrite(path, img)
    if(r == True):
    break;
cap.release()

無限ループを回して、何回もキャプチャを行ってみるという処理にしてみました。 このプログラムを動作させ、Ctrl+Cで中断すると無事にキャプチャができていました。

f:id:ueponx:20170122163047j:plain

そこで、やっと気が付きました。どうも起動後初回のキャプチャでは画像が真っ暗になるという特徴があるようです。 MicrosoftのLifeCamではどうなるかなと思い、変更すると、画像は真っ暗にはならず問題ありませんでした。

あくまでも予想ですが、Logicoolのhd-webcam-c615では初回キャプチャは空振ってしまうので、2回目以降を使用する必要があるようです。 この予想をもとに以下のようなコードに変更しました。

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import cv2

c = cv2.VideoCapture(0)
c.read()
r, img = c.read()
cv2.imwrite('capture.jpg', img)
c.release()

2回目のキャプチャをファイルに保存するという変更です。 これによりキャプチャ結果も問題がなくなりました。結果からしか判断できませんが、そういうカメラの特徴があったのだと思います。

おわりに

問題なくpythonをつかってOpenCV経由でキャプチャができました。初回のキャプチャがうまくいかないというカメラもあるのだなという教訓が得られたので、今回はよしとします。以降はOpenCVを使用したトラッキングなどをやってみたいと思います。

RaspberryPiでWindowsからリモートデスクトップ接続する【Pixel版】

Raspberry Pixel RaspberryPi コンピュータ

RaspberryPiでWindowsからリモートデスクトップ接続する【Pixel版】

新しく環境設定をしたRaspberryPiでXを使ったカメラアプリケーションをテストしようとしたのですがリモートデスクトップで接続がうまくできません。 以前にもRaspberryPiでWindowsからリモートデスクトップ接続に関するエントリを書きました…

uepon.hatenadiary.com

しかし、OSをのバージョンが新しいものになり、同じ設定では同様にリモートデスクトップ接続はできなくなってしまいました。

以前は以下のようにxrdpをインストールしていましたが、

$ sudo apt-get install xrdp

この後にリモートデスクトップ接続を行うと接続されるはずなのですが、

f:id:ueponx:20170115222256p:plain

ここまではくるのですが、ログイン後以下のようなダイアログが表示されます。

f:id:ueponx:20170115222735p:plain

OK】ボタンをクリックするとログイン画面に戻ります。 最近のRaspbianのイメージでは接続後にエラーダイアログが表示され、リモートデスクトップは開始されません。RaspberryPiでも、x86版Pixelでも例外では無いようです。

リモートデスクトップを再設定する

ググれば出てきますが、こちらの情報を参考にしました。

qiita.com

以下の手順でいいようです。

必要があればxrdpをアンインストールする

$ sudo apt-get remove xrdp

tightvncserverをインストールする

新しいRaspbianにはvncサーバがインストールされていないのが原因かと思います。

$ sudo apt-get install tightvncserver

xrdpをインストールする

sudo apt-get install xrdp

キーマップの設定を変更する

以前同様にキーマップを日本語キーボード用に設定をします。

~ $ wget http://w.vmeta.jp/temp/km-0411.ini
~ $ cd /etc/xrdp/
/etc/xrdp $ sudo cp ~/km-0411.ini .
/etc/xrdp $ sudo ln -s km-0411.ini km-e0010411.ini   
/etc/xrdp $ sudo ln -s km-0411.ini km-e0200411.ini
/etc/xrdp $ sudo ln -s km-0411.ini km-e0210411.ini
/etc/xrdp $ sudo service xrdp restart

これで終了です。

リモートデスクトップ接続する

改めてリモートデスクトップ接続を行うと…

f:id:ueponx:20170115231120p:plain

無事に成功しました。Hyper-V上のx86版のRaspberryPixelでも同様に接続できました。 やっと、目的のことをやれるようになれました。

Raspberry PixelをHyper-V環境にインストールしてみる

Raspberry Pixel 仮想 コンピュータ Windows10 Windows8

Raspberry PixelをHyper-V環境にインストールしてみる

以前のエントリで旧型のPCにRaspberry Pixelをインストールしました。

uepon.hatenadiary.com

今度はHyper-Vの環境にRaspberry Pixelをインストールをしてみます。仮想環境ではメモリや記憶容量などが少ないほうが良いので、その他の軽量Linuxと比べてもRaspberry Pixelはなかなかよい選択肢なのかなと思います。

ただ、isoイメージをそのまま使って起動するとDVDイメージを使ったLive設定と同じになるため設定などの変更(ロケールの設定、タイムゾーンの設定など)が行えない、ファイルの保存ができないなど色々と不都合があります。そこで今回はそれらの設定も可能な様にインストールを行います。

手順

今回行う手順を簡単に説明すると以下のようになります。

  1. isoイメージをダウンロードし、拡張子を変更
  2. イメージファイルをvhdファイルに変換
  3. Hyper-V仮想マシンを作成
  4. 仮想マシンをディスクイメージを変換する
  5. 仮想マシンの設定

ここでポイントになるのはisoのイメージをHyper-V仮想マシンで使用可能なvhd形式に変換しているところになります。


isoイメージをダウンロードし、拡張子を変更

http://downloads.raspberrypi.org/pixel_x86/images/pixel_x86-2016-12-13/2016-12-13-pixel-x86-jessie.iso

まず、上記のリンクからisoイメージをダウンロードします。(既にダウンロードしている場合には不要です) ダウンロードしたらファイルの拡張子をisoからimgに変更します。

(変更前)pixel_x86-2016-12-13/2016-12-13-pixel-x86-jessie.iso  f:id:ueponx:20170106214643j:plain

(変更後)pixel_x86-2016-12-13/2016-12-13-pixel-x86-jessie.img f:id:ueponx:20170106214847j:plain

イメージファイルをvhdファイルに変換

続いてはイメージファイルの変換を行います。先程ファイルの拡張子を変換したのは今回使用する変換ツールがisoという拡張子を使用できないために変換をしています。こちらで紹介する変換ツール以外でisoファイルを使用可能であれば、前述の拡張子変換の作業は不要です。

今回使用した変換ツールは以下です。

f:id:ueponx:20170106214702j:plain

www.starwindsoftware.com

こちらでも紹介されていました。

【レビュー】仮想ディスクフォーマットをVMDK/VHD/IMGへ相互変換「StarWind (V2V) Converter」 - 窓の杜

本当は以下のPowerShellでisoもそのまま使えるようなので使いたかったのですが、何故か起動できずハマっていたので上記で代用しています。

gallery.technet.microsoft.com

StarWind V2V Image Converterはダウンロードに登録が必要ですが、それ以外は制限はないようです。 インストールはインストーラーに従うだけなので省略します。

インストールが終わったらStarWind V2V Image Converterを起動します。

起動すると広告表示されるので、【次へ】ボタンをクリックして進みます。

f:id:ueponx:20170105215358j:plain

まずはSourceとなるイメージの場所の設定を指定します。今回はPCにダウンロードしたファイルを使用するので【Local file】を選択し【Next >】ボタンをクリックします。

f:id:ueponx:20170105220816j:plain

次はイメージファイルを選択します。先程、拡張子を変更したファイルを選択し【Next >】ボタンをクリックします。

f:id:ueponx:20170106215230j:plain

続いては変換するイメージファイルのフォーマットを選択します。今回は【Microsoft VHD growable image】(増加可能なVHDフォーマット)を選択して【Next >】ボタンをクリックします。やってみたわけではありませんが【Microsoft VHD pre-allocateed image】(固定サイズVHDフォーマット)でもいいのかなと思います。また、【Microsoft VHDX image】でも行けると思いますが、選択した場合は移行の作業も適宜読み替えて行ってください。

f:id:ueponx:20170106215241j:plain

今度はファイルの保存先を選択します。PC上に保存するので【Local file】を選択し【Next >】ボタンをクリックします。

f:id:ueponx:20170105223611j:plain

最後にファイル名を指定します。わかりやすい場所に保存すれば問題ないかと思います。

f:id:ueponx:20170106215409j:plain

【Next >】ボタンをクリックすると処理が開始されます。

f:id:ueponx:20170106215426j:plain

f:id:ueponx:20170106215437j:plain

出来上がったファイルはC:\Users\Public\Documents\Hyper-V\Virtual hard disksに保存すると、Hyper-VのデフォルトのHDDイメージを保存するフォルダなので後の処理が楽かなと思います。処理が完了したら【Finish】ボタンをクリックします。

f:id:ueponx:20170105223959j:plain

Hyper-V仮想マシンを作成

Hyper-Vマネージャ】を起動して、新しい仮想マシンを作成します。 今回の仮想マシンの名前はpixelとしています。入力したら【次へ】ボタンをクリックします。

f:id:ueponx:20170105224454j:plain

世代の指定では第1世代を選択してください。設定したら【次へ】ボタンをクリックします。

f:id:ueponx:20170105225237j:plain

メモリは多めでも良いと思いますが1024Mbyteでも大丈夫かなと思います。Raspbianベースですので。(大丈夫かなと思いますが、Xは普通に動いていました。)設定したら【次へ】ボタンをクリックします。

f:id:ueponx:20170105225633j:plain

ネットワーク構成は通信可能なものを選択してください。(インターフェースがない場合は作成をしましょう。)設定したら【次へ】ボタンをクリックします。

f:id:ueponx:20170105225717j:plain

仮想ハードディスクの接続設定になりますが、ここでは【既存の仮想ハードディスクを使用する】を選択し、先程作成したvhdファイルを指定します。設定したら【次へ】ボタンをクリックします。

f:id:ueponx:20170105225851j:plain

設定の確認画面になるのでこれで問題なければ【完了】ボタンをクリックします。これで仮想マシンが作成されます。

f:id:ueponx:20170106220340j:plain

処理が終わると仮想マシンの一覧に今回作成した仮想マシン名である【pixel】が追加されます。

f:id:ueponx:20170106220445j:plain

仮想マシンをディスクイメージを変換する

この段階ではディスクイメージがisoのイメージファイルと同じサイズなので大きくしようと思います 仮想マシンの操作の中から【ディスクの編集】を選択します。【仮想ハードディスクの編集ウイザード】が開きます。 そして、先程選択したディスクイメージのvhdファイルを選択し、【次へ】ボタンをクリックします。

f:id:ueponx:20170106221423j:plain

そして、操作の選択から【拡張】を選び、【次へ】ボタンをクリックします。

f:id:ueponx:20170106221957j:plain

仮想マシンで使用するディスクのサイズに変更します。今回は16GBに変更しました。設定が終わったら【次へ】ボタンをクリックします。

f:id:ueponx:20170106222126j:plain

処理の確認画面が表示されますので、問題なければ【完了】ボタンをクリックします。 これで処理は完了です。

仮想マシンの起動

設定が終わったので仮想マシンを起動します。

f:id:ueponx:20170106222956j:plain

起動中に以下のようなダイアログは出ますが、無視して問題ありません。

f:id:ueponx:20170106223143j:plain

起動が完了するとXが立ち上がるので端末を起動して

f:id:ueponx:20170106223233j:plain

sudo fdsik -lでディスク状況を確認します。isoイメージサイズではなく、先程指定したサイズになっていれば問題ないと思います。

仮想マシンの設定

これでOSの設定などが保存されるようになっていますので以下のブログに従って設定すると日本語化もうまくいくと思います。Pixelのx86版ではRaspbianと違ってRaspi-configコマンドがなかったので、このブログの情報はかなり助かりました。

qiita.com

sshも可能になって、WindowsからTeratermで接続も可能になり

f:id:ueponx:20170106224752j:plain

ブラウザでも日本語が表示できています。・・・↓の画像ではわかりにくいですが。

f:id:ueponx:20170106224956j:plain

おわりに

Hyper-V環境でも無事にRaspberry Pixelインストールすることができました。本当に少ないリソースで軽快に動いてくれるのでいいですね。特にメモリの少ないノートPCでも仮想環境としてLinux系のOSが使えるのが助かります。