一步步帶你實現web全景看房——three.js

canvas畫2d相信大家都很熟悉了,但3d世界更加炫酷。我們直接從three.js入手。下面我們從0開始來摸索一下3d世界

1. 基本概念

在THREEjs中,渲染一個3d世界的必要因素是場景(scene)、相機(camera)、渲染器(renderer)。渲染出一個3d世界後,可以往裡面增加各種各樣的物體、光源等,形成一個3d世界:

一步步帶你實現web全景看房——three.js

場景:右手座標系,一切要素都在場景裡面,相當於“世界”,包括各種物質和物理變化

一步步帶你實現web全景看房——three.js

// 創建場景
const scene = new THREE.Scene();

照相機:攝像機就相當於人眼,有攝像機才可以看見場景裡面的一切物體和光源。常用的是正交攝像機和透視攝像機

一步步帶你實現web全景看房——three.js

正交攝像機是一個矩形可視區域,物體只有在這個區域內才是可見的物體無論距離攝像機是遠或事近,物體都會被渲染成一個大小。一般應用場景是2.5d遊戲如跳一跳、機械模型

// 創建正交相機
const camera = new THREE.OrthographicCamera(
-window.innerWidth / 200,
window.innerWidth /200 ,
window.innerHeight/ 200,
-window.innerHeight/ 200,
1,
1000
);
一步步帶你實現web全景看房——three.js

我們可以看見上圖的效果,有一個正方體已經走了很遠但是大小不變。另外還可以看見角落有一個正方體已經被截斷了一部分,那是因為正交攝像機僅僅展示一個空間內的場景,所以會有截斷效果。

透視攝像機是最常用的攝像機類型,模擬人眼的視覺,近大遠小(透視)。Fov表示的是視角,Fov越大,表示眼睛睜得越大,離得越遠,看得更多。如果是需要模擬現實,基本都是用這個相機

一步步帶你實現web全景看房——three.js

// 創建透視相機
const camera = new THREE.PerspectiveCamera(
90,
window.innerWidth / window.innerHeight,
1,
10000
);

一步步帶你實現web全景看房——three.js

近大遠小的效果就出來了,比較符合現實

渲染器

最後需要把所有的內容渲染到頁面上,需要一個渲染器:

 const renderer = new THREE.WebGLRenderer();
renderer.setSize(window.innerWidth, window.innerHeight); // canvas大小
document.body.appendChild(renderer.domElement);

2. 給畫面增加內容

上面的確是把3d世界畫出來了,只是沒有什麼東西。在three.js中,我們需要增加光源和mesh

mesh

mesh即是網格。在計算機裡,3D世界是由點組成的,無數的面拼接成各種形狀的物體。這種模型叫做網格模型。一條線是兩個點組成,一個面是3個點組成,一個物體由多個3點組成的面組成:

一步步帶你實現web全景看房——three.js

而網格(mesh)又是由幾何體(geometry)和材質(material)構成的

geometry

一步步帶你實現web全景看房——three.js

一步步帶你實現web全景看房——three.js

我們所能想象到的幾何體,框架都自帶了,我們只需要調用對應的幾何體構造函數即可創建。幾何體的創建方法都是new,如BoxBuffer:const geometry = new THREE.BoxBufferGeometry( 1, 1, 1 );

創建的時候,一般定義了渲染一個 3D 物體所需要的基本數據:Face 面、Vertex 頂點等信息。THREE.xxxGeometry指的是框架自帶的幾何體,不同幾何體所需要的參數有所不同,大概是width、height、radius、depth、segment、detail、angle等屬性

更多geometry相關api

BufferGeometry和Geometry有什麼不同?就實現的效果來說它們都是一樣,但是BufferGeometry的多了一些頂點屬性,且性能較好。對於開發者來說,Geometry對象屬性少體驗更好。THREE解析幾何體對象的時候,如果是Geometry,則會把對象轉換成ufferGeometry對象,再進行下一步渲染

material

一步步帶你實現web全景看房——three.js

一個物體很多的物理性質,取決於其材料,材料也決定了幾何體的外表。材料的創建方法也是new,如Lambert材料:const material = new THREE.MeshLambertMaterial();

一個物體是否有鏡面感、亮暗、顏色、透明、是否反光等性質,取決於使用什麼材料。THREE.xxxMaterial指的是框架自帶的材料,不同材料所需要的參數也是有所不同

更多material相關api

有了geometry和material,就可以創建一個mesh並追加到場景中:

const mesh = new THREE.Mesh(geometry, material);
scene.add(mesh);

光源

一個3d世界,如果需要更加逼真,那就需要光源了。光也有很多種,常見的有平行光(圖2)、點光源(圖3)、環境光(環境光充滿所有的幾何體表面)、聚光燈(圖1)

一步步帶你實現web全景看房——three.js

其中,只有平行光、點光源才能產生陰影。而且有的材料是受光源影響,沒有光就是黑的。而一些材料是不受光影響的。光源的創建,如直射光:

const light = new THREE.DirectionalLight(0xffffff, 0.9)

THREE.xxxLight指的是框架自帶的光源構造函數,一般實例化的時候需要的參數是color、intensity、distance等配置。另外,一個3d世界當然不是一種光構成,所以光可以疊加,疊加的結果作用與物體上。

而且物體的影子也不是白送的,需要某些支持影子的光加上開發者配置:

// 光產生影子
light.castShadow = true;
// 地面接受影子
ground.receiveShadow = true;
// 物體產生影子
mesh.castShadow = true;

3. 調試工具

軌道控制器

加上此控制器,就可以通過鼠標拖拽、滾動對整個畫面進行拖拽放縮 軌道控制器代碼在THREE官方github上,如果使用的時候報錯THREE.OrbitControls is not a constructor,那麼就copy一份下來,第一行加一個window:window.THREE.OrbitControls = ...

使用方法就是new一個控制器,然後監聽變化,觸發render

 const controls = new THREE.OrbitControls(camera, renderer.domElement);
controls.addEventListener("change", () => {
renderer.render(scene, camera);
});
controls.minDistance = 1;
controls.maxDistance = 2000;
controls.enablePan = false;

性能監控

源代碼。可以拷貝下來,掛在window上

官方大部分例子都使用了一個stat的插件,在左上角會出現性能變化的曲線,供我們調試使用。使用方法:

 const stat = new Stats();
document.body.appendChild(stat.dom);

// 改造render函數
function render() {
renderer.render(scene, camera);
stat.update();
}
一步步帶你實現web全景看房——three.js

4. let's coding

先把場景、攝像機、渲染器弄出來,然後添加一個紅色的球

 function init() {
const renderer = new THREE.WebGLRenderer();
renderer.setPixelRatio(window.devicePixelRatio);
renderer.setSize(window.innerWidth, window.innerHeight);
document.body.appendChild(renderer.domElement);
// 場景
const scene = new THREE.Scene();
// 相機
const camera = new THREE.PerspectiveCamera(
90,
window.innerWidth / window.innerHeight,
0.1,
100
);
camera.position.set(10, 0, 0);
// 軌道控制器
const controls = new THREE.OrbitControls(camera, renderer.domElement);
controls.addEventListener("change", render);
controls.minDistance = 1;
controls.maxDistance = 200;
controls.enablePan = false;
// 新增一個紅色球
const geometry = new THREE.SphereGeometry(1, 10, 10);
const material = new THREE.MeshBasicMaterial({ color: 0xff0000 });
const mesh = new THREE.Mesh(geometry, material);
scene.add(mesh);
// 座標軸輔助線
scene.add(new THREE.AxisHelper(1000));
controls.update(); // 控制器需要
controls.target.copy(mesh.position);
function render() {
renderer.render(scene, camera);
}
function r() {
render();
requestAnimationFrame(r)
}
r()
}


init();

此時,可以看見座標原點上有一個球。其實,一個幾何體紋理是可以使用圖片的,甚至還可以使用視頻,此時不能雙擊打開html,需要本地起一個服務器打開。我們改造一下mesh:

 function addImg(url, scene, n = 1) {
const texture = THREE.ImageUtils.loadTexture(url);
const material = new THREE.MeshBasicMaterial({ map: texture });
const geometry = new THREE.SphereGeometry(1, 10, 10);
const mesh = new THREE.Mesh(geometry, material);
scene.add(mesh);
return mesh;
}


// const geometry = new THREE.SphereGeometry(1, 10, 10);
// const material = new THREE.MeshBasicMaterial({ color: 0xff0000 });
// const mesh = new THREE.Mesh(geometry, material);
// 去酷家樂找了一個圖
const mesh = addImg("https://qhyxpicoss.kujiale.com/r/2019/07/01/L3D137S8ENDIADDWAYUI5L7GLUF3P3WS888_3000x4000.jpg?x-oss-process=image/resize,m_fill,w_1600,h_920/format,webp", scene, 1);
scene.add(mesh);
複製代碼

原點顯示一個圖作為紋理的球

一步步帶你實現web全景看房——three.js

基本都ok了,怎麼實現全景看房呢?我們上面的條件都ok了,最後需要做的事情是:將攝像機放在球體中心、軌道控制器放縮上限最小最大設置成1和2、渲染mesh內表面

 // 調整max
controls.minDistance = 1;
// controls.maxDistance = 200;
controls.maxDistance = 2;

// 調整球大小
// const geometry = new THREE.SphereGeometry(1, 10, 10);
const geometry = new THREE.SphereGeometry(50, 256, 256);

// 攝像機放球體中心
// camera.position.set(10, 0, 0);
camera.position.set(-0.3, 0, 0);

// 渲染球體的雙面
const material = new THREE.MeshLambertMaterial({ map: texture });
material.side = THREE.DoubleSide;

全景看房的效果就出來了,然後只需拖動就可以調整角度了。引入是普通平面圖,所以圖的首尾交接有一點問題。

一步步帶你實現web全景看房——three.js

這只是實現的一個思路,實現的方法有很多,如柱體、立方體,圖片可能是扇形的全景圖也可能是多個圖片拼接起來的。具體的細節根據業務進行調整

全部代碼如下,需要引入three.js、orbitcontrol

全部代碼

 function init() {
const renderer = new THREE.WebGLRenderer();
renderer.setPixelRatio(window.devicePixelRatio);
renderer.setSize(window.innerWidth, window.innerHeight);
document.body.appendChild(renderer.domElement);
const scene = new THREE.Scene();
const camera = new THREE.PerspectiveCamera(
90,
window.innerWidth / window.innerHeight,
0.1,
100
);
// camera.position.set(10, 0, 0);
camera.position.set(-0.3, 0, 0);
const controls = new THREE.OrbitControls(camera, renderer.domElement);
controls.addEventListener("change", render);
controls.minDistance = 1;
// controls.maxDistance = 200;
controls.maxDistance = 2;
controls.enablePan = false;
// const geometry = new THREE.SphereGeometry(1, 10, 10);
// const material = new THREE.MeshBasicMaterial({ color: 0xff0000 });
// const mesh = new THREE.Mesh(geometry, material);
const mesh = addImg("https://qhyxpicoss.kujiale.com/r/2019/07/01/L3D137S8ENDIADDWAYUI5L7GLUF3P3WS888_3000x4000.jpg?x-oss-process=image/resize,m_fill,w_1600,h_920/format,webp", scene, 1);
scene.add(mesh);
controls.update();
controls.target.copy(mesh.position);
function render() {
renderer.render(scene, camera);
}
function r() {
render();

requestAnimationFrame(r)
}
scene.add(new THREE.AxisHelper(1000));
r()
}
function addImg(url, scene, n = 1) {
const texture = THREE.ImageUtils.loadTexture(url);
const material = new THREE.MeshBasicMaterial({ map: texture });
// const geometry = new THREE.SphereGeometry(1, 10, 10);
const geometry = new THREE.SphereGeometry(50, 256, 256);
const mesh = new THREE.Mesh(geometry, material);
material.side = THREE.DoubleSide;
scene.add(mesh);
return mesh;
}
init();

鏈接:https://juejin.im/post/5d57967a6fb9a06b017e4b62


分享到:


相關文章: