原创 unity3d邊緣發光效果

這是本人在學習unity的shader的一些理解,效果圖如下 核心代碼爲 void surf (Input IN, inout SurfaceOutput o) {fixed4 t = tex2D (_MainTex, IN.uv_Ma

原创 unity3d的斜邊分屏實現

昨天看到蠻牛上有個練手的文章,要求是實現unity斜邊分屏,就是將屏幕分成兩個三角形,分別顯示兩個照相機顯示的內容,有些端遊也出現過,而且網上也好像沒有這樣的例子,覺得有趣,就寫了一個早上,實現了它,先上效果圖: 上面的例子中,兩個照相

原创 unity的圖像邊緣檢測以及簡單的模糊效果

首先,看下邊緣檢測的效果(其實這個邊緣檢測我是從cocos2dx的官方着色器裏面拿過來加以修改的) 給image添加一個材質,而材質上的shader是這樣的 Shader "Custom/Edge" { Properties {

原创 unity3d中的addChild

很多從cocos2d-x轉unity3d的朋友會面對unity3d中的父子關係不知所措,所以就稍微提下,unity3d中的父子關係是由transform中的parent決定的,c#中可寫成如下所示 GameObject obj = Gam

原创 3d地圖的a*尋路

對於2d地圖的a星算法其實很多。原理都是一樣的,我做這個的3d的尋路其實只是在2d地圖數據中加入了一個高度的數據,而在權重中由原來的兩個座標的勾股定理變爲三維座標系的勾股定理,以前我做cocos2dx開發時曾寫過一個lua版的a星,就用這

原创 cocos2dx3.0系統文本描邊的shader實現方式

上面這個是系統文本的實現方式,所以我們只需要對_textSprite進一步處理就可以得到想要的效果,但是_textSprite這個成員是protected,個人比較懶散,就直接讓他public了,於是出現了下面這個步驟: 接着可以對它

原创 關於斜視椎體的矩陣上解釋

今天在查找斜視椎體是怎麼回事的時候,看了一下unity聖典的官方介紹,鏈接是:http://game.ceeger.com/Manual/ObliqueFrustum.html 我發現這裏解釋的不是很清楚,核心代碼爲 function

原创 unity3d製作弧形血條,魔條

第一步,我們需要先準備好一張弧形素材圖片資源: 第二步,把該資源在unity中按照如下設置: 第三步,在unity中創建一個image,並且把資源拖給該image,就變爲如下所示 需要注意點擊一下set native size,圖片纔會

原创 使用cocos2dx做強制新手引導的觸摸區域誤差的個人解決方案

前幾天有個朋友問我之前我的項目中新手引導是怎麼做成的觸摸很準確,而之前開發這個功能時候我是突發奇想,不知有沒有人也是使用了這個思路。由於本人目前已經不接觸cocos開發,便只簡單敘述一下思路。 首先設計一個覆蓋層,新手引導的框框全部顯示在

原创 unity中的萬向節鎖具體體現

之前寫過一篇關於萬向節鎖的文章(http://blog.csdn.net/lj820348789/article/details/48264049),當然,那都是理論上的,下面來看看在實戰中遇到的萬向節鎖問題,代碼如下: public c

原创 水墨風模型shader

效果如下,有需要的朋友就往下看看吧 這是一個在描邊shader的基礎上做的改善,都知道的描邊材質主要的實現的方式是模型往法線方向往外擴展一定的寬度,形成描邊,但是這樣的操作就使得描邊的寬度是一定的,就不是很符合筆繪製的樣子,這裏需要做到

原创 接收區塊寵物代搶業務,輔助定製

接收區塊寵物代搶業務,輔助定製,有意聯繫微信potato2potato,qq360901047 萊特貓代搶,輔助定製

原创 cocos2dx-lua官方demo構建流程代碼解析

       很久沒弄cocos2dx了,其實相比unity我個人真心比較喜歡cocos,可能是我比較喜歡能直接接觸代碼吧,畢竟沒有什麼比代碼更可靠的。        我們看看c++調用lua的地方吧,打開cocos的c++工程,打開Ap

原创 unity3d利用kinect動態去背景丟失頭髮的解決方案

最近有一個需求是換背景拍照,用到了kinect,但是卻發現利用kinect摳人物圖像出來時頭髮不見了,可能是因爲頭髮黑色容易吸收紅外線吧,下面這張是kinect原始摳圖效果: 可以看到,頭髮部分丟失了。 其實我的解決方案就是找到頭髮所在

原创 kinect沙池遊戲的紋理混合

今天想講講kinect沙池遊戲中的紋理混合,這是去年公司的項目,一個人歷時數月完成的,當然這裏只講基於深度做出的紋理混合的原理,其他的就不便多說。先看效果圖吧,我不懂怎麼發動圖 1,先獲得kinect的深度數據,原始數據並不是一張圖,而