【Edison+Node.js】Node.js+MRAAでArduinoを操作してみた

2014年11月28日

Pocket

edison_thamb3_2

Node.jsでArduinoを操作するには、MRAAというIntelが提供しているライブラリを使います。MRAAは、ArduinoやEdisonのI/OをPython/JavaScript/C++/Cの言語から簡単に操作できるライブラリです。
今回は、デジタル出力とアナログ入力をNode.jsで操作してみます。
 
前回の
【Intel(R)Edison × Arduino】WiFi接続してArduinoでデータ送信しPHPで受け取るでWiFi接続はしたので、続きから説明します!

準備物

Edison
Arduino Expansion Board(Arduino拡張ボード)
Arduino Base Shield
Light sensor(光センサー)
LED
MicroUSBケーブル
電源ケーブル
PC
WiFi環境
 
 

1.MRAAセットアップ

ターミナルでEdisonにログインし、 /etc/opkg/mraa-upm.confというファイルを作成する。

# cd /etc/opkg/
# vi mraa-upm.conf

mraa-upm.confファイの中に
“src mraa-upm http://iotdk.intel.com/repos/1.1/intelgalactic”と入力する。
下記を実行

# opkg update
# opkg install libmraa0

これでMRAAのセットアップOKです。
 
 

2.Node.jsでデジタル出力

13ピンにLEDを刺します。
edison2
 
ターミナルで”nodejs”という作業用ディレクトリを作ります。
そこにファイルを作成していきます。

# mkdir nodejs
# cd nodejs
# vi test.js

test.jsというファイルを作成し、中に下記のコードを書いていく。

var mraa = require("mraa"); //MRAA読み込み
var led = new mraa.Gpio(13); //デジタル入力ピン13を変数に代入

led.dir(mraa.DIR_OUT); 
led.write(1); //LEDを光らす

書き終えたら、Node.jsを動かします。

# node test.js

成功したら、LEDが光ります。
 
 

3.Node.jsでアナログ入力

アナログ入力A0に光センサーを繋げます。
edison15
 
先ほどのコードは消してしまって、test.jsに下記のコードを書いていきます。

var mraa = require("mraa");
var light = new mraa.Aio(0); //アナログA0ピンを変数へ代入

function lightRead(){

	var lightValue = light.read(); //光センサーん値取得

	console.log(lightValue);

	setTimeout(lightRead, 1000); //1秒毎に取得

}
lightRead();

test.jsを実行すると、ターミナル上に光センサーで取得した値が1秒毎に表示されます。
Node.jsを停止させるときは、controlキー+cで停止します。
 
 

入力、出力両方使う

先ほど書いたコードを合わせて、暗くなるとLEDが光り明るいとLEDが消えるようにしました。

var mraa = require("mraa");
var led = new mraa.Gpio(13);
var light = new mraa.Aio(0);
led.dir(mraa.DIR_OUT);

function lightRead(){

	var lightValue = light.read();

	console.log(lightValue);

	if(lightValue < 10){
		led.write(1);
	}else{
		led.write(0);
	}

	setTimeout(lightRead, 100);

}
lightRead();

 
 
 
とりあえず簡単ではありますが、サーバーと連携させてArduinoを操作することができました!!
MRAAの参考コードなど下記のサイトでいろいろ見れます。
https://github.com/intel-iot-devkit/mraa/tree/master/examples
 
 
【超小型Linux Intel(R)Edison】EdisonをセットアップからArduinoでLチカまでやってみた
【Intel(R)Edison × Arduino】WiFi接続してArduinoでデータ送信しPHPで受け取る
【Arduino入門 第一弾】Webデザイナーでもできる電子工作~LED点滅~

続きを読む

three.jsで3Dデザインの作成

2014年9月26日

Pocket

l_060

最近のWebデザインは2次元表現のみならず、3次元表現が増えてきていますね!
3Dデザインと効くと敷居が高いと思いますが、three.jsを使うとあっと間に3Dデザインができます。
今回は、three.jsを使用して3Dで立体を描画してみましょう!
 
 

準備

まずは、three.jsを下記からダウロードします。
 
http://threejs.org/
 
ダウンロードしたフォルダ内のbuildフォルダにあるthree.min.jsのファイルを任意の場所に移し、htmlファイルで読み込みます。

<script src="//ajax.googleapis.com/ajax/libs/jquery/1.11.1/jquery.min.js"></script>
<script src="js/three.min.js"></script>

 
 

基本用語

scene 3Dを表現する空間
geometry 描画するオブジェクトの形
material 描画するオブジェクトの素材
mesh 3Dオブジェクト
camera sceneを撮影するカメラ
renderer 作成したmeshをHTMLと紐付け表示させる

 
 

描画空間作成

では、早速コードを書いていきましょう。
HTML

<div id="three_d" style="width:500px; height:300px;"></div>

3Dを描画する場所を作ります。
 
JavaScript

//scene
var scene = new THREE.Scene();

図形が描かれる3D空間のsceneを作成。
 
 

オブジェクト作成

//cube
var geometry = new THREE.CubeGeometry(50,50,50); //----①
var material = new THREE.MeshLambertMaterial({color : "#2E2E2E"}); //----②
var cube = new THREE.Mesh(geometry,material); //----③
cube.position.set(0, 0, 0); //----④
scene.add(cube); //----⑤

①geometry(キューブ型)を作成。
②materialを作成。
③meshを作成。
④meshのポジションを設定。
⑤sceneに描画する。
 
 

カメラ作成

//camera
var camera = new THREE.PerspectiveCamera(45,width/height,1,1000); //----①
camera.position.set(100,100,200); //----②
camera.lookAt(cube.position); //----③

①cameraの写す領域を設定。
②cameraのポジションを設定。
③cameraの向いている方向を設定。この場合は、cubeの方に向けています。
 
 

renderer

//#three_dのサイズ取得
var width = $('#three_d').width();
var height = $('#three_d').height()

//renderer
var renderer = new THREE.WebGLRenderer(); //----①
renderer.setSize(width,height); //----②
renderer.setClearColor(0xeeeeee,1); //----③
document.getElementById('three_d').appendChild(renderer.domElement); //----④
renderer.render(scene,camera); //----⑤

①renderer作成。
②先ほどcameraで設定したサイズを設定。
③sceneの背景色を設定。
④#three_dにrendererを展開。
⑤表示する。
 
スクリーンショット 2014-09-17 23.59.38
 
このままだと光源がないので真っ黒なままです。
次に光源を足しましょう。
 

光源を作成

//light
var light = new THREE.DirectionalLight(0xffffff); //----①
light.position.set(200,600,0); //----②
scene.add(light); //----③
var ambient = new THREE.AmbientLight(0x1C1C1C); //----④
scene.add(ambient); //----⑤

①光源(light)の色を設定。
②lightのポジションを設定。
③lightをsceneに追加。
④AmbientLight(環境光)を設定。
⑤AmbientLightをsceneに追加。
 
スクリーンショット 2014-09-17 17.22.45
 
 

オブジェクトをアニメーションさせる

JavaScript

function render(){
	requestAnimationFrame(render); //----①
	cube.rotation.x += 1 * Math.PI / 180; //----②
	cube.rotation.y += 1 * Math.PI / 180; //----②
	cube.rotation.x += 1 * Math.PI / 180; //----②

	renderer.render(scene,camera);
}
render(); //----③

①アニメーションさせるためにrender()を呼び起こす。
②cubeをx、y、z方向に回転させる。
③render()を呼び起こす。
 
 

OrbitControls

色々な向きからオブジェクトを見れるようにcamera位置をカーソルで動かせるようにします。
ダウンロードファイルの中にあるOrbitControls.jsのファイルを任意の場所に移動し、読み込みます。
HTML

<script src="//ajax.googleapis.com/ajax/libs/jquery/1.11.1/jquery.min.js"></script>
<script src="js/three.min.js"></script>
<script src="js/OrbitControls.js"></script>

JavaScript

//controls
var controls = new THREE.OrbitControls(camera,renderer.domElement); //----①
controls.minDistance = 	10; //----②
controls.maxDistance = 1000; //----③

function render(){
	requestAnimationFrame(render);
	cube.rotation.x += 1 * Math.PI / 180;
	cube.rotation.y += 1 * Math.PI / 180;
	cube.rotation.x += 1 * Math.PI / 180;

	renderer.render(scene,camera);
	controls.update(); //----④
}
render();

①controlsを作成。
②近づける距離の最小値を設定。
③遠ざかれる距離の最大値を設定。
④controlsをアップデートする。
 
 
 

DEMO

上記のコードをまとめた物が下記です。
 
DEMO
 
 
HTML

<!DOCTYPE html>
<html>
<head>
	<script src="//ajax.googleapis.com/ajax/libs/jquery/1.11.1/jquery.min.js"></script>
	<script src="js/three.min.js"></script>
	<script src="js/OrbitControls.js"></script>
</head>
<body>
	<div id="three_d" style="width:500px; height:300px;"></div>
<body>
</html>

JavaScript

//#three_dのサイズ取得
var width = $('#three_d').width();
var height = $('#three_d').height()

//scene
var scene = new THREE.Scene();

//cube
var geometry = new THREE.CubeGeometry(50,50,50);
var material = new THREE.MeshLambertMaterial({color : "#2E2E2E"});
var cube = new THREE.Mesh(geometry,material);
cube.position.set(0, 0, 0);
scene.add(cube);

//light
var light = new THREE.DirectionalLight(0xffffff);
light.position.set(200,600,0);
scene.add(light);
var ambient = new THREE.AmbientLight(0x1C1C1C);
scene.add(ambient);

//camera
var camera = new THREE.PerspectiveCamera(45,width/height,1,1000);
camera.position.set(100,100,200);
camera.lookAt(cube.position);

//renderer
var renderer = new THREE.WebGLRenderer()
renderer.setSize(width,height);
renderer.setClearColor(0xeeeeee,1);
document.getElementById('three_d').appendChild(renderer.domElement);
renderer.render(scene,camera);

//controls
var controls = new THREE.OrbitControls(camera,renderer.domElement);
controls.minDistance = 	10;   //近づける距離の最小値
controls.maxDistance = 1000;   //遠ざかれる距離の最大値

function render(){
	requestAnimationFrame(render);
	cube.rotation.x += 1 * Math.PI / 180;
	cube.rotation.y += 1 * Math.PI / 180;
	cube.rotation.x += 1 * Math.PI / 180;

	renderer.render(scene,camera);
	controls.update();
}
render();

 
 
 
他にも色々なオブジェクトを簡単に描画できるので、気になった人は色々試してみてください!

続きを読む

【Web Audio API入門】音楽プレイヤー作成 第3弾

2014年9月19日

Pocket

PLANTILLA_FREEPIK

今回は、音楽データを視覚化します。
SoundCloudなど、音楽サイトなんかでよく見かけるアレを作ります。
これを作るとグッとプレイヤー感が上がりますよ。

波形を描画

波形を描画するには、canvasを使います。
なので、まずはhtmlにcanvasタグを記述しましょう。
HTML

<body>
    <p class="botton" onClick="play()">PLAY</p>
    <p class="botton" onClick="stop()">STOP</p>
    <p>Volume</p>
    <input id="volume" type="range" value="50" onChange="volumeChange()">
</body>
<canvas width="650" height="200"></canvas>

 
波形のデータを得るにはgetChannelDataメソッドを使います。
 
JavaScript

xml.onload = function() {
    if (xml.status === 200) {
        //引数を受け取る
        var arrayBuffer = xml.response;
        if (arrayBuffer instanceof ArrayBuffer) {
            var successCallback = function(audioBuffer) {
                //AudioBufferインスタンスを変数へ格納
                buffer = audioBuffer;

                var channelLs = new Float32Array(audioBuffer.length);

                //オーディオデータのチャンネル数が0以上のとき
		if (audioBuffer.numberOfChannels > 0) {
		    //getChannelDataメソッドで波形データ取得
		    channelLs.set(audioBuffer.getChannelData(0));
		}

                //10ミリ秒
                var n10msec = Math.floor(10 * Math.pow(10, -3) * context.sampleRate);

                //canvas
                var canvas = document.querySelector('canvas');
                var canvasContext = canvas.getContext('2d');
                //canvasをクリアにする
                canvasContext.clearRect(0, 0, canvas.width, canvas.height);

                //channelLsの長さだけループ
                for (var i = 0, len = channelLs.length; i < len; i++) {
                    //10ミリ秒ごとに描画
                    if((i % n10msec) === 0){
                        var x = (i / len) * canvas.width;
                        var y = ((1 - channelLs[i]) / 2) * canvas.height;
                        if(i === 0){
                            //canvasの描画初期位置
                            canvasContext.moveTo(x, y);
                        }else{
                            canvasContext.lineTo(x, y);
                        }
                    }
                }
                canvasContext.stroke();
            };

            var errorCallback = function() {
                window.alert('読み込みに失敗しました');
            };
 
            //ArrayBufferデコードする
            context.decodeAudioData(arrayBuffer, successCallback, errorCallback);
 
        }
    }
};

getChannelDataでチャンネルデータを配列で取得します。
その配列の数だけループさせ、10ミリ秒単位のところで、canvasを描画していきます。
1ミリ秒にすればさらに細かい波形になっていきます。
配列に格納されている数値(−1〜1)がY軸になります。
canvasの高さを1として考えます。
Y軸は下へ伸びるので、この波形では真ん中を0にしたいので、1からチャンネルの数値を引いて、
さらに波形は上下に動くので、canvasの高さが1なので割る2をします。
 
こんな感じの波形が描かれています。
スクリーンショット 2014-09-03 16.43.55
 
 

グリッド描画

次は、波形のグリッドを描いていきます。

xml.onload = function() {

    //〜〜〜〜〜〜〜省略〜〜〜〜〜〜〜〜〜

    //曲の秒数
    soundtime = Math.floor(audioBuffer.length / context.sampleRate);

    //1秒あたりのX軸へ動く数値
    xRate = canvas.width / soundtime;
    for(var i = 0; i < soundtime; i++){
	var x = xRate * i;
	if (i === 0) {
	    canvasContext.moveTo(x, canvas.height);
	} else {
	    if( i % 10 === 0 ){
		//10秒毎にグリッドを描画
		    canvasContext.fillRect(x, 0, 0.5, canvas.height);
	    }
        }
    }
    canvasContext.stroke();

    //〜〜〜〜〜〜〜省略〜〜〜〜〜〜〜〜〜
}

audioBuffer.lengthで曲の長さを取得できます。
でもそのままだと、値が違うので秒数にわかりやすく秒数にします。
そのためにはsampleRateでaudioBuffer.lengthを割ります。
sampleRateはオーディオの1秒あたりのサンプルフレーム数です。
あとは、秒数分ループさせてグリッドを入れたい秒数で描画していきます。
 
グリッドを足しました。
スクリーンショット 2014-09-03 16.43.29
 
 
 

DEMO

最後にデザインをちょっと入れて自作音楽プレイヤーの完成です。
 
DEMO
 
スクリーンショット 2014-09-03 16.50.57
 
HTML

<!DOCTYPE html>
<html>
<head>
    <!--jQueryを使用する-->
    <script src="//ajax.googleapis.com/ajax/libs/jquery/1.11.1/jquery.min.js"></script>
</head>
<body>
<div class="contents">
    <div class="audio_contents">
	<p id="playBotton" class="botton play" onClick="play()">PLAY</p>
	<p class="botton" onClick="stop()">STOP</p>
	<input id="volume" type="range" value="50" onChange="volumeChange()">
    </div>
    <canvas width="650" height="200"></canvas>
</div>
</body>
</html>

 
Javascript

window.AudioContext = window.AudioContext || window.webkitAudioContext || mozAudioContext; 
try {
    var context = new AudioContext();
} catch (error) {
    alert('このブラウザは未対応です');
}

 
var xml = new XMLHttpRequest();
//読み込むデータのURLを書く
xml.open('GET', '音楽ファイル', true);
xml.responseType = 'arraybuffer';
xml.onload = function() {
    if (xml.status === 200) {
        //引数を受け取る
        var arrayBuffer = xml.response;
        if (arrayBuffer instanceof ArrayBuffer) {
            var successCallback = function(audioBuffer) {
                //AudioBufferインスタンスを変数へ格納
                buffer = audioBuffer;

                var channelLs = new Float32Array(audioBuffer.length);

		//オーディオデータのチャンネル数が0以上のとき
		if (audioBuffer.numberOfChannels > 0) {
		    //getChannelDataメソッドで波形データ取得
                    channelLs.set(audioBuffer.getChannelData(0));
		}

		//10ミリ秒
		var n10msec = Math.floor(10 * Math.pow(10, -3) * context.sampleRate);

		var canvas = document.querySelector('canvas');
		var canvasContext = canvas.getContext('2d');
		//canvasをクリアにする
		canvasContext.clearRect(0, 0, canvas.width, canvas.height);

		//描画色設定
		canvasContext.strokeStyle='#50EAFF';
		//channelLsの長さだけループ
		for (var i = 0, len = channelLs.length; i < len; i++) {
		    //10ミリ秒ごとに描画
	            if ((i % n10msec) === 0) {
		        var x = (i / len) * canvas.width;
			var y = ((1 - channelLs[i]) / 2) * (canvas.height - 20) + 20;
			if (i === 0) {
			    //canvasの描画初期位置
			    canvasContext.moveTo(x, y);
			} else {
			    canvasContext.lineTo(x, y);
			}
                    }
		}
		//描画
		canvasContext.stroke();

		//曲の秒数
		soundtime = Math.floor(audioBuffer.length / context.sampleRate);

		//目盛り表示欄
		canvasContext.fillStyle = '#6e6e6e';
		canvasContext.fillRect(0, 0, canvas.width, 20);

		//1秒あたりのX軸へ動く数値
		xRate = canvas.width / soundtime;
		canvasContext.fillStyle = '#eee';
		for(var i = 0; i < soundtime; i++){
		    var x = xRate * i;
	            if (i === 0) {
			canvasContext.moveTo(x, canvas.height);
	       	    } else {
			if( i % 10 === 0 ){
                            //10秒毎にグリッドを描画
			    canvasContext.fillRect(x, 10, 0.5, canvas.height - 10);
			    canvasContext.fillText(i, x-7, 10);
			}else if(i % 2 === 0 ){
			    //2秒毎に目盛りを描画
       			    canvasContext.fillRect(x, 15, 0.3, 5);
			}
		    }
		}
		canvasContext.stroke();

            };
            var errorCallback = function() {
                window.alert('読み込みに失敗しました');
            };
 
            //ArrayBufferデコードする
            context.decodeAudioData(arrayBuffer, successCallback, errorCallback);
 
        }
    }
};
xml.send(null);


//始めからスタートのフラグをたてる
var first_flg = true;   

function play(){

    if($('#playBotton').hasClass('pause')){

        pause();

    }else if($('#playBotton').hasClass('play')){

        //AudioBufferSourceNodeを作成する
        source = context.createBufferSource();
        //bufferプロパティにAudioBufferインスタンスを設定
        source.buffer = buffer;
        //ループ
        source.loop = false; 
        //AudioBufferSourceNodeインスタンスをdestinationプロパティに接続
        source.connect(context.destination);

        //GainNodeを作成する
        gainNode = context.createGain();
        //sourceをGainNodeへ接続する
        source.connect(gainNode);
        //GainNodeをAudioDestinationNodeに接続
        gainNode.connect(context.destination);
        gainNode.gain.value = 4;

        source.start = source.start || source.noteOn;
        source.stop  = source.stop  || source.noteOff;

        //始めからの再生の場合
        if(first_flg){
    	    //スタート時間を変数startTimeに格納
    	    startTime = context.currentTime;
    	    replayTime = startTime;
    	    //停止されている時間を初期は0にしておく
    	    pausingTime = 0;
    	    first_flg = false;
        }else{
    	    //再スタート時間を変数replayTimeに格納
	    replayTime = context.currentTime;
	    //再スタートの時間からpauseした時間を引いて、停止されている時間の合計に足していく
	    pausingTime += replayTime - pauseTime;
        }

        //replayTimeからstartTimeとpausingTime引いた時間が曲のスタート時間
        var playTime = replayTime - startTime - pausingTime;

        //再生
        source.start(0,playTime);

        //クラスとテキスト変更
        $('.play').removeClass('play').addClass('pause').html('PAUSE');
    }
}

 
function pause() {	
    //止めた時間を変数pauseTimeに格納
    pauseTime = context.currentTime;
    source.stop(0);

    //クラスとテキスト変更
    $('.pause').removeClass('pause').addClass('play').html('PLAY');
}


function stop(){
    source.stop();
    first_flg = true;
    //クラスとテキスト変更
    $('.pause').removeClass('pause').addClass('play').html('PLAY');
}


function volumeChange(){
    //range属性のvalue取得
    var value = document.getElementById( "volume" ).value;
    //gainNodeの値に変更
    var volume = ( value / 10 ) - 1;

    //gainNodeに代入
    gainNode.gain.value = volume;
} 

 
CSS

.contents{
	width: 1000px;
	margin: 50px;
}
.audio_contents{
	border-radius: 5px 0 0 5px / 5px 0 0 5px;
	background-color: #ccc;
	float: left;
	height: 150px;
	padding: 25px;
	text-align: center;
	width: 300px;
}
.title{
	font-size: 16px;
	color: #4e4e4e;
}
.botton{
	border-radius: 5px;
	background-color: #4e4e4e;
	cursor: pointer;
	color: #eee;
	font-size: 13px;
	float: left;
	height: 45px;
	line-height: 50px;
	margin: 25px 25px 0;
	text-align: center;
	width: 100px;
}
#volume{
	margin-top: 40px; 
	width: 250px;
}
canvas{
	border-radius: 0 5px 5px 0 / 0 5px 5px 0;
	background-color: #4e4e4e;
}

シンプルではありますが、これを応用していけばかなり充実したプレイヤーが作れそうですね。
入門編は3回で終わりましたが、またいつかWeb Audio API中級編を書きたいと思います。
 
 
 
参考:WEB SOUNDER – Web Audio API 解説 -
 
 
 
【Web Audio API入門】音楽プレイヤー作成 第1弾
【Web Audio API入門】音楽プレイヤー作成 第2弾

続きを読む

【Web Audio API入門】音楽プレイヤー作成 第2弾

2014年9月15日

Pocket

aud0002-009 のコピー

音楽プレイヤー作成 第2弾です!
今回は、一時停止、音量調整機能を実装します。
 

音量調節

inputの属性rangeを使用してボリュームを調節するつまみを作ります。
rangeのValueは0から100までです。真ん中の50に初期値を設定します。
rangeが変更されたらvolumeChange()のファンクションが呼び出されます。
 
HTML

<body>
    <p class="botton" onClick="play()">PLAY</p>
    <p class="botton" onClick="stop()">STOP</p>
    <p>Volume</p>
    <input id="volume" type="range" value="50" onChange="volumeChange()">
</body>

 
音量を調整するにはGainNodeを使用します。
gainNodeのValue属性に音量の値を設定することによって音量を設定できます。
 
JavaScript

function play(){
     //〜〜〜〜〜〜〜省略〜〜〜〜〜〜〜〜〜

     //GainNodeを作成する
     gainNode = context.createGain();

     //sourceをGainNodeへ接続する
          source.connect(gainNode);

     //GainNodeをAudioDestinationNodeに接続
     gainNode.connect(context.destination);

     //音量を表記
     gainNode.gain.value = 3.0;

     //〜〜〜〜〜〜〜省略〜〜〜〜〜〜〜〜〜
}

function volumeChange(){
    //range属性のvalue取得
    var value = document.getElementById( "volume" ).value;
    //gainNodeの値に変更
    var volume = ( value / 10 ) - 1;

    //gainNodeに代入
    gainNode.gain.value = volume;
} 

range属性からvalueを取得し、gainNodeのvalueに代入します。
rangeのvalueをそのまま代入すると音がでかすぎるので、valueの値を10分の1にします。
gainNodeのvalueは-1で音がなくなるのでrangeが0のとき、gainNodeが-1になるようにvalueから-1をしています。
 
 

一時停止

再生をストップしたら、AudioBufferSourceNodeが削除されるので、次に再生を押しても始めからのスタートになってしまいます。
一時停止ができないプレイヤーは使い勝手が悪いので、一時停止機能を作っていきます。
 
実はstart()関数には、スタートする時間と、曲のどの位置からスタートするかを入れれるのです。
start(スタート時間,曲のスタートする位置の時間)と表記します。
とは言うものの、その時間は自分で計算しなくてはなりません。
 
少し複雑なコードになってきました。
 
HTML

<body>
    <p id="playBotton" class="botton play" onClick="play()">PLAY</p>
    <p class="botton" onClick="stop()">STOP</p>
    <p>Volume</p>
    <input id="volume" type="range" value="50" onChange="volumeChange()">
</body>

 
JavaScript

//始めからスタートのフラグをたてる
var first_flg = true;

function play(){

    if($('#playBotton').hasClass('pause')){

        pause();

    }else if($('#playBotton').hasClass('play')){

         //〜〜〜〜〜〜〜省略〜〜〜〜〜〜〜〜〜

         //始めからの再生の場合
        if(first_flg){
    	    //スタート時間を変数startTimeに格納
    	    startTime = context.currentTime;
    	    replayTime = startTime;
    	    //停止されている時間を初期は0にしておく
    	    pausingTime = 0;
    	    first_flg = false;
        }else{
    	    //再スタート時間を変数replayTimeに格納
    	    replayTime = context.currentTime;
    	    //再スタートの時間からpauseした時間を引いて、停止されている時間の合計に足していく
    	    pausingTime += replayTime - pauseTime;
        }

        //replayTimeからstartTimeとpausingTime引いた時間が曲のスタート時間
        var playTime = replayTime - startTime - pausingTime;

        //再生
        source.start(0,playTime);

        //クラスとテキスト変更
        $('.play').removeClass('play').addClass('pause').html('PAUSE');
    }
} 

function pause() {	
    //止めた時間を変数pauseTimeに格納
    pauseTime = context.currentTime;
    source.stop(0);

    //クラスとテキスト変更
    $('.pause').removeClass('pause').addClass('play').html('PLAY');
}

function stop(){
    source.stop();
    //初期値に戻す
    first_flg = true;
    //クラスとテキスト変更
    $('.pause').removeClass('pause').addClass('play').html('PLAY');
}

ここで重要なのがcontext.currentTime属性です。
context.currentTimeはcontextが作成された時点からの時間を取得します。
なので、再生ボタンを押した時間ではありません。
これがややこしいのですが、この時間をもとにスタートした時間やストップした時間を変数などに格納し、足したり引いたりして目的の数値を計算します。
再生ボタンにidをふり、play()が呼び出されたとき、id=”playBotton”がplayのクラスを持っていたら再生をpauseのクラスを持っていたら一時停止するように分岐しています。
 
 
 

DEMO

下記は今回の機能を追加したソースです。
 
DEMO
 
 
HTML

<!DOCTYPE html>
<html>
<head>
    <!--jQueryを使用する-->
    <script src="//ajax.googleapis.com/ajax/libs/jquery/1.11.1/jquery.min.js"></script>
</head>
<body>
    <p id="playBotton" class="botton play" onClick="play()">PLAY</p>
    <p class="botton" onClick="stop()">STOP</p>
    <p>Volume</p>
    <input id="volume" type="range" value="50" onChange="volumeChange()">
</body>
</html>

 
JavaScript

window.AudioContext = window.AudioContext || window.webkitAudioContext || mozAudioContext; 
try {
    var context = new AudioContext();
} catch (error) {
    alert('このブラウザは未対応です');
}

 
var xml = new XMLHttpRequest();
//読み込むデータのURLを書く
xml.open('GET', '音楽ファイル', true);
xml.responseType = 'arraybuffer';
xml.onload = function() {
    if (xml.status === 200) {
        //引数を受け取る
        var arrayBuffer = xml.response;
        if (arrayBuffer instanceof ArrayBuffer) {
            var successCallback = function(audioBuffer) {
                //AudioBufferインスタンスを変数へ格納
                buffer = audioBuffer;
            };
            var errorCallback = function() {
                window.alert('読み込みに失敗しました');
            };
 
            //ArrayBufferデコードする
            context.decodeAudioData(arrayBuffer, successCallback, errorCallback);
 
        }
    }
};
xml.send(null);


//始めからスタートのフラグをたてる
var first_flg = true;   

function play(){

    if($('#playBotton').hasClass('pause')){

        pause();

    }else if($('#playBotton').hasClass('play')){

        //AudioBufferSourceNodeを作成する
        source = context.createBufferSource();
        //bufferプロパティにAudioBufferインスタンスを設定
        source.buffer = buffer;
        //ループ
        source.loop = false; 
        //AudioBufferSourceNodeインスタンスをdestinationプロパティに接続
        source.connect(context.destination);

        //GainNodeを作成する
        gainNode = context.createGain();
        //sourceをGainNodeへ接続する
        source.connect(gainNode);
        //GainNodeをAudioDestinationNodeに接続
        gainNode.connect(context.destination);
        gainNode.gain.value = 4;

        source.start = source.start || source.noteOn;
        source.stop  = source.stop  || source.noteOff;

        //始めからの再生の場合
        if(first_flg){
    	    //スタート時間を変数startTimeに格納
    	    startTime = context.currentTime;
    	    replayTime = startTime;
    	    //停止されている時間を初期は0にしておく
    	    pausingTime = 0;
    	    first_flg = false;
        }else{
    	    //再スタート時間を変数replayTimeに格納
	    replayTime = context.currentTime;
	    //再スタートの時間からpauseした時間を引いて、停止されている時間の合計に足していく
	    pausingTime += replayTime - pauseTime;
        }

        //replayTimeからstartTimeとpausingTime引いた時間が曲のスタート時間
        var playTime = replayTime - startTime - pausingTime;

        //再生
        source.start(0,playTime);

        //クラスとテキスト変更
        $('.play').removeClass('play').addClass('pause').html('PAUSE');
    }
}

 
function pause() {	
    //止めた時間を変数pauseTimeに格納
    pauseTime = context.currentTime;
    source.stop(0);

    //クラスとテキスト変更
    $('.pause').removeClass('pause').addClass('play').html('PLAY');
}


function stop(){
    source.stop();
    first_flg = true;
    //クラスとテキスト変更
    $('.pause').removeClass('pause').addClass('play').html('PLAY');
}


function volumeChange(){
    //range属性のvalue取得
    var value = document.getElementById( "volume" ).value;
    //gainNodeの値に変更
    var volume = ( value / 10 ) - 1;

    //gainNodeに代入
    gainNode.gain.value = volume;
} 

 
 
 
今回はコードの量の割には機能がしょぼい感じがしますが、とりあえずオーディオになってきましたね。
次回は、音楽データの視覚化についてリポートします。
 
 
 
【Web Audio API入門】音楽プレイヤー作成 第1弾
【Web Audio API入門】音楽プレイヤー作成 第3弾

続きを読む

【Web Audio API入門】音楽プレイヤー作成 第1弾

2014年9月2日

Pocket

picjumbo.com_HNCK0644 のコピー

色々な機能を盛り込める今あついWeb Audio APIを使って音楽プレイヤーを自作してみましょう!
Web Audio API入門編は三回に分けて、少しづつ作っていこうと思います。
HTML5から<audio>を使えるので、ただ音楽を再生するならそれを使えば一番簡単なのですが、Web Audio APIではエフェクトをかけたり音楽データを視覚化したり、高度な機能を実装できます。
 
 
今回はとりあえず再生するところまでやってみます。
 
 

AudioContextを作成する

AudioContextは構成ブロックであるAudioNodeの集合やそれらの接続を表すインターフェースでオーディオが入力から出力までの流れを定義します。
まずはAudioContextを作成します。

window.AudioContext = window.AudioContext || window.webkitAudioContext || mozAudioContext; 
	try {
	    var context = new AudioContext();
	} catch (error) {
	    alert('このブラウザは未対応です');
	}

作成に成功したら変数contextにAudioContextを代入しています。
作成に失敗したらアラートを出しています。
 

サウンドをロードする

音楽ファイルをWeb Audio APIへロードするには、XMLHttpRequestを使います。

var xml = new XMLHttpRequest();
//読み込むデータのURLを書く
xml.open('GET', '音楽ファイル', true);
xml.responseType = 'arraybuffer';
xml.onload = function() {
    if (xml.status === 200) {
        //引数を受け取る
        var arrayBuffer = xml.response;
        if (arrayBuffer instanceof ArrayBuffer) {
            var successCallback = function(audioBuffer) {
                //AudioBufferインスタンスを変数へ格納
                buffer = audioBuffer;
            };
            var errorCallback = function() {
                window.alert('読み込みに失敗しました');
            };

            //ArrayBufferデコードする
            context.decodeAudioData(arrayBuffer, successCallback, errorCallback);

        }
    }
};
xml.send(null);

AudioBufferSourceNodeを作成する

//AudioBufferSourceNodeを作成する
source = context.createBufferSource();

//bufferプロパティにAudioBufferインスタンスを設定
source.buffer = buffer;

//ループをオフにする
source.loop = false; 

//AudioBufferSourceNodeインスタンスをAudioDestinationNodeに接続
source.connect(context.destination);

AudioDestinationNode(destination)は音の出口です。
ソースを作成したらAudioDestinationNodeにつないで音が出力できるようにします。
※AudioBufferSourceNodeは使い捨てとなっているので、一度曲をストップするともう一度AudioBufferSourceNodeを作成しなくてはいけないです。
 

サウンドを再生する

//スイッチを入れる
source.start = source.start || source.noteOn;
source.stop  = source.stop  || source.noteOff;

//再生する
source.start(0);

停止するには下記のように表記します。

//停止する
source.stop(0);

 
 
 

DEMO

これらを一連の流れで書いたのが下記のソースです
 
DEMO
 

HTML

<!DOCTYPE html>
<html>
<body>
    <p class="botton" onClick="play()">PLAY</p>
    <p class="botton" onClick="stop()">STOP</p>
</body>
</html>

JavaScript

window.AudioContext = window.AudioContext || window.webkitAudioContext || mozAudioContext; 
try {
    var context = new AudioContext();
} catch (error) {
    alert('このブラウザは未対応です');
}

var xml = new XMLHttpRequest();
//読み込むデータのURLを書く
xml.open('GET', '音楽ファイル', true);
xml.responseType = 'arraybuffer';
xml.onload = function() {
    if (xml.status === 200) {
        //引数を受け取る
        var arrayBuffer = xml.response;
        if (arrayBuffer instanceof ArrayBuffer) {
            var successCallback = function(audioBuffer) {
                //AudioBufferインスタンスを変数へ格納
                buffer = audioBuffer;
            };
            var errorCallback = function() {
                window.alert('読み込みに失敗しました');
            };

            //ArrayBufferデコードする
            context.decodeAudioData(arrayBuffer, successCallback, errorCallback);

        }
    }
};
xml.send(null);

function play(){

    //AudioBufferSourceNodeを作成する
    source = context.createBufferSource();

    //bufferプロパティにAudioBufferインスタンスを設定
    source.buffer = buffer;

    //ループをオフにする
    source.loop = false; 

    //AudioBufferSourceNodeインスタンスをAudioDestinationNodeに接続
    source.connect(context.destination);

    source.start = source.start || source.noteOn;
    source.stop  = source.stop  || source.noteOff;

    //再生
    source.start(0);
}

function stop(){
    source.stop(0);
}

 
 
 
ざっくり再生までの流れをリポートしました。
次回は、一時停止や音量などの機能を付けていきます。
 
 
 
【Web Audio API入門】音楽プレイヤー作成 第2弾
【Web Audio API入門】音楽プレイヤー作成 第3弾

続きを読む

このサイトについて


『意識低い系女と高い系男の一年戦争』はクリエイティブ会社エアゼの代表2人が運営するブログです。エアゼは、アプリ・Web・IoT・インタラクティブコンテンツのデザイン・開発を手がけています。

エアゼ ホームページ