three.jsで3Dデザインの作成

2014年9月26日

Pocket

l_060

最近のWebデザインは2次元表現のみならず、3次元表現が増えてきていますね!
3Dデザインと効くと敷居が高いと思いますが、three.jsを使うとあっと間に3Dデザインができます。
今回は、three.jsを使用して3Dで立体を描画してみましょう!
 
 

準備

まずは、three.jsを下記からダウロードします。
 
http://threejs.org/
 
ダウンロードしたフォルダ内のbuildフォルダにあるthree.min.jsのファイルを任意の場所に移し、htmlファイルで読み込みます。

<script src="//ajax.googleapis.com/ajax/libs/jquery/1.11.1/jquery.min.js"></script>
<script src="js/three.min.js"></script>

 
 

基本用語

scene 3Dを表現する空間
geometry 描画するオブジェクトの形
material 描画するオブジェクトの素材
mesh 3Dオブジェクト
camera sceneを撮影するカメラ
renderer 作成したmeshをHTMLと紐付け表示させる

 
 

描画空間作成

では、早速コードを書いていきましょう。
HTML

<div id="three_d" style="width:500px; height:300px;"></div>

3Dを描画する場所を作ります。
 
JavaScript

//scene
var scene = new THREE.Scene();

図形が描かれる3D空間のsceneを作成。
 
 

オブジェクト作成

//cube
var geometry = new THREE.CubeGeometry(50,50,50); //----①
var material = new THREE.MeshLambertMaterial({color : "#2E2E2E"}); //----②
var cube = new THREE.Mesh(geometry,material); //----③
cube.position.set(0, 0, 0); //----④
scene.add(cube); //----⑤

①geometry(キューブ型)を作成。
②materialを作成。
③meshを作成。
④meshのポジションを設定。
⑤sceneに描画する。
 
 

カメラ作成

//camera
var camera = new THREE.PerspectiveCamera(45,width/height,1,1000); //----①
camera.position.set(100,100,200); //----②
camera.lookAt(cube.position); //----③

①cameraの写す領域を設定。
②cameraのポジションを設定。
③cameraの向いている方向を設定。この場合は、cubeの方に向けています。
 
 

renderer

//#three_dのサイズ取得
var width = $('#three_d').width();
var height = $('#three_d').height()

//renderer
var renderer = new THREE.WebGLRenderer(); //----①
renderer.setSize(width,height); //----②
renderer.setClearColor(0xeeeeee,1); //----③
document.getElementById('three_d').appendChild(renderer.domElement); //----④
renderer.render(scene,camera); //----⑤

①renderer作成。
②先ほどcameraで設定したサイズを設定。
③sceneの背景色を設定。
④#three_dにrendererを展開。
⑤表示する。
 
スクリーンショット 2014-09-17 23.59.38
 
このままだと光源がないので真っ黒なままです。
次に光源を足しましょう。
 

光源を作成

//light
var light = new THREE.DirectionalLight(0xffffff); //----①
light.position.set(200,600,0); //----②
scene.add(light); //----③
var ambient = new THREE.AmbientLight(0x1C1C1C); //----④
scene.add(ambient); //----⑤

①光源(light)の色を設定。
②lightのポジションを設定。
③lightをsceneに追加。
④AmbientLight(環境光)を設定。
⑤AmbientLightをsceneに追加。
 
スクリーンショット 2014-09-17 17.22.45
 
 

オブジェクトをアニメーションさせる

JavaScript

function render(){
	requestAnimationFrame(render); //----①
	cube.rotation.x += 1 * Math.PI / 180; //----②
	cube.rotation.y += 1 * Math.PI / 180; //----②
	cube.rotation.x += 1 * Math.PI / 180; //----②

	renderer.render(scene,camera);
}
render(); //----③

①アニメーションさせるためにrender()を呼び起こす。
②cubeをx、y、z方向に回転させる。
③render()を呼び起こす。
 
 

OrbitControls

色々な向きからオブジェクトを見れるようにcamera位置をカーソルで動かせるようにします。
ダウンロードファイルの中にあるOrbitControls.jsのファイルを任意の場所に移動し、読み込みます。
HTML

<script src="//ajax.googleapis.com/ajax/libs/jquery/1.11.1/jquery.min.js"></script>
<script src="js/three.min.js"></script>
<script src="js/OrbitControls.js"></script>

JavaScript

//controls
var controls = new THREE.OrbitControls(camera,renderer.domElement); //----①
controls.minDistance = 	10; //----②
controls.maxDistance = 1000; //----③

function render(){
	requestAnimationFrame(render);
	cube.rotation.x += 1 * Math.PI / 180;
	cube.rotation.y += 1 * Math.PI / 180;
	cube.rotation.x += 1 * Math.PI / 180;

	renderer.render(scene,camera);
	controls.update(); //----④
}
render();

①controlsを作成。
②近づける距離の最小値を設定。
③遠ざかれる距離の最大値を設定。
④controlsをアップデートする。
 
 
 

DEMO

上記のコードをまとめた物が下記です。
 
DEMO
 
 
HTML

<!DOCTYPE html>
<html>
<head>
	<script src="//ajax.googleapis.com/ajax/libs/jquery/1.11.1/jquery.min.js"></script>
	<script src="js/three.min.js"></script>
	<script src="js/OrbitControls.js"></script>
</head>
<body>
	<div id="three_d" style="width:500px; height:300px;"></div>
<body>
</html>

JavaScript

//#three_dのサイズ取得
var width = $('#three_d').width();
var height = $('#three_d').height()

//scene
var scene = new THREE.Scene();

//cube
var geometry = new THREE.CubeGeometry(50,50,50);
var material = new THREE.MeshLambertMaterial({color : "#2E2E2E"});
var cube = new THREE.Mesh(geometry,material);
cube.position.set(0, 0, 0);
scene.add(cube);

//light
var light = new THREE.DirectionalLight(0xffffff);
light.position.set(200,600,0);
scene.add(light);
var ambient = new THREE.AmbientLight(0x1C1C1C);
scene.add(ambient);

//camera
var camera = new THREE.PerspectiveCamera(45,width/height,1,1000);
camera.position.set(100,100,200);
camera.lookAt(cube.position);

//renderer
var renderer = new THREE.WebGLRenderer()
renderer.setSize(width,height);
renderer.setClearColor(0xeeeeee,1);
document.getElementById('three_d').appendChild(renderer.domElement);
renderer.render(scene,camera);

//controls
var controls = new THREE.OrbitControls(camera,renderer.domElement);
controls.minDistance = 	10;   //近づける距離の最小値
controls.maxDistance = 1000;   //遠ざかれる距離の最大値

function render(){
	requestAnimationFrame(render);
	cube.rotation.x += 1 * Math.PI / 180;
	cube.rotation.y += 1 * Math.PI / 180;
	cube.rotation.x += 1 * Math.PI / 180;

	renderer.render(scene,camera);
	controls.update();
}
render();

 
 
 
他にも色々なオブジェクトを簡単に描画できるので、気になった人は色々試してみてください!

続きを読む

【Web Audio API入門】音楽プレイヤー作成 第3弾

2014年9月19日

Pocket

PLANTILLA_FREEPIK

今回は、音楽データを視覚化します。
SoundCloudなど、音楽サイトなんかでよく見かけるアレを作ります。
これを作るとグッとプレイヤー感が上がりますよ。

波形を描画

波形を描画するには、canvasを使います。
なので、まずはhtmlにcanvasタグを記述しましょう。
HTML

<body>
    <p class="botton" onClick="play()">PLAY</p>
    <p class="botton" onClick="stop()">STOP</p>
    <p>Volume</p>
    <input id="volume" type="range" value="50" onChange="volumeChange()">
</body>
<canvas width="650" height="200"></canvas>

 
波形のデータを得るにはgetChannelDataメソッドを使います。
 
JavaScript

xml.onload = function() {
    if (xml.status === 200) {
        //引数を受け取る
        var arrayBuffer = xml.response;
        if (arrayBuffer instanceof ArrayBuffer) {
            var successCallback = function(audioBuffer) {
                //AudioBufferインスタンスを変数へ格納
                buffer = audioBuffer;

                var channelLs = new Float32Array(audioBuffer.length);

                //オーディオデータのチャンネル数が0以上のとき
		if (audioBuffer.numberOfChannels > 0) {
		    //getChannelDataメソッドで波形データ取得
		    channelLs.set(audioBuffer.getChannelData(0));
		}

                //10ミリ秒
                var n10msec = Math.floor(10 * Math.pow(10, -3) * context.sampleRate);

                //canvas
                var canvas = document.querySelector('canvas');
                var canvasContext = canvas.getContext('2d');
                //canvasをクリアにする
                canvasContext.clearRect(0, 0, canvas.width, canvas.height);

                //channelLsの長さだけループ
                for (var i = 0, len = channelLs.length; i < len; i++) {
                    //10ミリ秒ごとに描画
                    if((i % n10msec) === 0){
                        var x = (i / len) * canvas.width;
                        var y = ((1 - channelLs[i]) / 2) * canvas.height;
                        if(i === 0){
                            //canvasの描画初期位置
                            canvasContext.moveTo(x, y);
                        }else{
                            canvasContext.lineTo(x, y);
                        }
                    }
                }
                canvasContext.stroke();
            };

            var errorCallback = function() {
                window.alert('読み込みに失敗しました');
            };
 
            //ArrayBufferデコードする
            context.decodeAudioData(arrayBuffer, successCallback, errorCallback);
 
        }
    }
};

getChannelDataでチャンネルデータを配列で取得します。
その配列の数だけループさせ、10ミリ秒単位のところで、canvasを描画していきます。
1ミリ秒にすればさらに細かい波形になっていきます。
配列に格納されている数値(−1〜1)がY軸になります。
canvasの高さを1として考えます。
Y軸は下へ伸びるので、この波形では真ん中を0にしたいので、1からチャンネルの数値を引いて、
さらに波形は上下に動くので、canvasの高さが1なので割る2をします。
 
こんな感じの波形が描かれています。
スクリーンショット 2014-09-03 16.43.55
 
 

グリッド描画

次は、波形のグリッドを描いていきます。

xml.onload = function() {

    //〜〜〜〜〜〜〜省略〜〜〜〜〜〜〜〜〜

    //曲の秒数
    soundtime = Math.floor(audioBuffer.length / context.sampleRate);

    //1秒あたりのX軸へ動く数値
    xRate = canvas.width / soundtime;
    for(var i = 0; i < soundtime; i++){
	var x = xRate * i;
	if (i === 0) {
	    canvasContext.moveTo(x, canvas.height);
	} else {
	    if( i % 10 === 0 ){
		//10秒毎にグリッドを描画
		    canvasContext.fillRect(x, 0, 0.5, canvas.height);
	    }
        }
    }
    canvasContext.stroke();

    //〜〜〜〜〜〜〜省略〜〜〜〜〜〜〜〜〜
}

audioBuffer.lengthで曲の長さを取得できます。
でもそのままだと、値が違うので秒数にわかりやすく秒数にします。
そのためにはsampleRateでaudioBuffer.lengthを割ります。
sampleRateはオーディオの1秒あたりのサンプルフレーム数です。
あとは、秒数分ループさせてグリッドを入れたい秒数で描画していきます。
 
グリッドを足しました。
スクリーンショット 2014-09-03 16.43.29
 
 
 

DEMO

最後にデザインをちょっと入れて自作音楽プレイヤーの完成です。
 
DEMO
 
スクリーンショット 2014-09-03 16.50.57
 
HTML

<!DOCTYPE html>
<html>
<head>
    <!--jQueryを使用する-->
    <script src="//ajax.googleapis.com/ajax/libs/jquery/1.11.1/jquery.min.js"></script>
</head>
<body>
<div class="contents">
    <div class="audio_contents">
	<p id="playBotton" class="botton play" onClick="play()">PLAY</p>
	<p class="botton" onClick="stop()">STOP</p>
	<input id="volume" type="range" value="50" onChange="volumeChange()">
    </div>
    <canvas width="650" height="200"></canvas>
</div>
</body>
</html>

 
Javascript

window.AudioContext = window.AudioContext || window.webkitAudioContext || mozAudioContext; 
try {
    var context = new AudioContext();
} catch (error) {
    alert('このブラウザは未対応です');
}

 
var xml = new XMLHttpRequest();
//読み込むデータのURLを書く
xml.open('GET', '音楽ファイル', true);
xml.responseType = 'arraybuffer';
xml.onload = function() {
    if (xml.status === 200) {
        //引数を受け取る
        var arrayBuffer = xml.response;
        if (arrayBuffer instanceof ArrayBuffer) {
            var successCallback = function(audioBuffer) {
                //AudioBufferインスタンスを変数へ格納
                buffer = audioBuffer;

                var channelLs = new Float32Array(audioBuffer.length);

		//オーディオデータのチャンネル数が0以上のとき
		if (audioBuffer.numberOfChannels > 0) {
		    //getChannelDataメソッドで波形データ取得
                    channelLs.set(audioBuffer.getChannelData(0));
		}

		//10ミリ秒
		var n10msec = Math.floor(10 * Math.pow(10, -3) * context.sampleRate);

		var canvas = document.querySelector('canvas');
		var canvasContext = canvas.getContext('2d');
		//canvasをクリアにする
		canvasContext.clearRect(0, 0, canvas.width, canvas.height);

		//描画色設定
		canvasContext.strokeStyle='#50EAFF';
		//channelLsの長さだけループ
		for (var i = 0, len = channelLs.length; i < len; i++) {
		    //10ミリ秒ごとに描画
	            if ((i % n10msec) === 0) {
		        var x = (i / len) * canvas.width;
			var y = ((1 - channelLs[i]) / 2) * (canvas.height - 20) + 20;
			if (i === 0) {
			    //canvasの描画初期位置
			    canvasContext.moveTo(x, y);
			} else {
			    canvasContext.lineTo(x, y);
			}
                    }
		}
		//描画
		canvasContext.stroke();

		//曲の秒数
		soundtime = Math.floor(audioBuffer.length / context.sampleRate);

		//目盛り表示欄
		canvasContext.fillStyle = '#6e6e6e';
		canvasContext.fillRect(0, 0, canvas.width, 20);

		//1秒あたりのX軸へ動く数値
		xRate = canvas.width / soundtime;
		canvasContext.fillStyle = '#eee';
		for(var i = 0; i < soundtime; i++){
		    var x = xRate * i;
	            if (i === 0) {
			canvasContext.moveTo(x, canvas.height);
	       	    } else {
			if( i % 10 === 0 ){
                            //10秒毎にグリッドを描画
			    canvasContext.fillRect(x, 10, 0.5, canvas.height - 10);
			    canvasContext.fillText(i, x-7, 10);
			}else if(i % 2 === 0 ){
			    //2秒毎に目盛りを描画
       			    canvasContext.fillRect(x, 15, 0.3, 5);
			}
		    }
		}
		canvasContext.stroke();

            };
            var errorCallback = function() {
                window.alert('読み込みに失敗しました');
            };
 
            //ArrayBufferデコードする
            context.decodeAudioData(arrayBuffer, successCallback, errorCallback);
 
        }
    }
};
xml.send(null);


//始めからスタートのフラグをたてる
var first_flg = true;   

function play(){

    if($('#playBotton').hasClass('pause')){

        pause();

    }else if($('#playBotton').hasClass('play')){

        //AudioBufferSourceNodeを作成する
        source = context.createBufferSource();
        //bufferプロパティにAudioBufferインスタンスを設定
        source.buffer = buffer;
        //ループ
        source.loop = false; 
        //AudioBufferSourceNodeインスタンスをdestinationプロパティに接続
        source.connect(context.destination);

        //GainNodeを作成する
        gainNode = context.createGain();
        //sourceをGainNodeへ接続する
        source.connect(gainNode);
        //GainNodeをAudioDestinationNodeに接続
        gainNode.connect(context.destination);
        gainNode.gain.value = 4;

        source.start = source.start || source.noteOn;
        source.stop  = source.stop  || source.noteOff;

        //始めからの再生の場合
        if(first_flg){
    	    //スタート時間を変数startTimeに格納
    	    startTime = context.currentTime;
    	    replayTime = startTime;
    	    //停止されている時間を初期は0にしておく
    	    pausingTime = 0;
    	    first_flg = false;
        }else{
    	    //再スタート時間を変数replayTimeに格納
	    replayTime = context.currentTime;
	    //再スタートの時間からpauseした時間を引いて、停止されている時間の合計に足していく
	    pausingTime += replayTime - pauseTime;
        }

        //replayTimeからstartTimeとpausingTime引いた時間が曲のスタート時間
        var playTime = replayTime - startTime - pausingTime;

        //再生
        source.start(0,playTime);

        //クラスとテキスト変更
        $('.play').removeClass('play').addClass('pause').html('PAUSE');
    }
}

 
function pause() {	
    //止めた時間を変数pauseTimeに格納
    pauseTime = context.currentTime;
    source.stop(0);

    //クラスとテキスト変更
    $('.pause').removeClass('pause').addClass('play').html('PLAY');
}


function stop(){
    source.stop();
    first_flg = true;
    //クラスとテキスト変更
    $('.pause').removeClass('pause').addClass('play').html('PLAY');
}


function volumeChange(){
    //range属性のvalue取得
    var value = document.getElementById( "volume" ).value;
    //gainNodeの値に変更
    var volume = ( value / 10 ) - 1;

    //gainNodeに代入
    gainNode.gain.value = volume;
} 

 
CSS

.contents{
	width: 1000px;
	margin: 50px;
}
.audio_contents{
	border-radius: 5px 0 0 5px / 5px 0 0 5px;
	background-color: #ccc;
	float: left;
	height: 150px;
	padding: 25px;
	text-align: center;
	width: 300px;
}
.title{
	font-size: 16px;
	color: #4e4e4e;
}
.botton{
	border-radius: 5px;
	background-color: #4e4e4e;
	cursor: pointer;
	color: #eee;
	font-size: 13px;
	float: left;
	height: 45px;
	line-height: 50px;
	margin: 25px 25px 0;
	text-align: center;
	width: 100px;
}
#volume{
	margin-top: 40px; 
	width: 250px;
}
canvas{
	border-radius: 0 5px 5px 0 / 0 5px 5px 0;
	background-color: #4e4e4e;
}

シンプルではありますが、これを応用していけばかなり充実したプレイヤーが作れそうですね。
入門編は3回で終わりましたが、またいつかWeb Audio API中級編を書きたいと思います。
 
 
 
参考:WEB SOUNDER – Web Audio API 解説 -
 
 
 
【Web Audio API入門】音楽プレイヤー作成 第1弾
【Web Audio API入門】音楽プレイヤー作成 第2弾

続きを読む

このサイトについて


『意識低い系女と高い系男の一年戦争』はクリエイティブ会社エアゼの代表2人が運営するブログです。エアゼは、アプリ・Web・IoT・インタラクティブコンテンツのデザイン・開発を手がけています。

エアゼ ホームページ