本篇文章不是特别完整,所以放上在公司做的内部分享的PPT。
SSAO标签: Unity3D
C#代码:
float fovY = m_Camera.fieldOfView; float far = m_Camera.farClipPlane; float height = 2 * Mathf.Tan(fovY * Mathf.Deg2Rad * 0.5f) * far; float width = height * m_Camera.aspect; m_Material.SetVector("_FarCorner", new Vector3(width, height, far));
上面的代码主要是求得远裁剪平面的宽、高,以及距离摄像机的距离。都是以摄像机空间的单位为单位的,而不是以像素为单位(Camera.pixelWidth
, Camera.pixelHeight
)。
shader代码:
float depth = Linear01Depth(tex2D(_CameraDepthTexture, uv).x); float3 ray = (half3(-0.5f,-0.5f,0) + half3(uv.xy,-1)) * _FarCorner; float3 viewPos = ray * depth;
tex2D(_CameraDepthTexture, uv).x
根据屏幕像素的uv对深度纹理进行采样获取Z buffer,但此时的Z buffer是非线性的,需要调用Linear01Depth
将其映射到线性的[0, 1]区间内,0对应摄像机位置,1对应远裁剪平面。
half3(-0.5f,-0.5f,0) + half3(uv.xy,-1)
将uv坐标减去0.5,从[0,1]区间映射到了[-0.5,0.5]区间。
乘以_FarCorner
得到half3((uv.x - 0.5f) * width, (uv.y - 0.5f) * width, -1 * far)
,此时x在[-0.5width, 0.5width]区间内,y在[-0.5height, 0.5height]区间内,z是-far。
但以上只是远裁剪平面的情况,实际上每个xy平面的宽高以及对应的z值是随depth线性变化的。所以最后一步乘以depth
,获得最终的摄像机空间下的坐标。
我们游戏内的动作都是Generic类型的,并且技能动作使用了{% post_link Unity-Root-Motion Root Motion %}来处理技能位移。
所有模型都有一跟B_Root骨骼(没有蒙皮信息),用作模型导入设置里的Root node。
如果将动作类型改为Humanoid,则由于B_Root的存在,会导致Root Motion无法正常使用,不管Bake Inot Pos与否,动作本身都会有位移,看表现应该是B_Root影响到了Body Transform和Body Orientation的计算:
工欲善其事,必先利其器
在使用Unity开发游戏的过程中经常需要同时启动两个甚至多个Unity客户端来进行测试或调试,最简单的做法自然是checkout两份工程。
但会遇到一些问题:
- 每次开第二个工程Unity就会先报错,然后让你选择工程,虽说无关痛痒,但次数多了也容易让人烦躁:
- 任务栏上的Unity图标很容易忘记哪个对应哪个工程
- 用VS进行debug的时候不知道应该挂到哪个进程上,这是最烦的
当然这些令人不爽的问题都是可以解决的,下面是我的做法: