> 文章列表 > 【Unity】基于AVFoundation开发MacOS摄像头(一)

【Unity】基于AVFoundation开发MacOS摄像头(一)

【Unity】基于AVFoundation开发MacOS摄像头(一)

起因:unity的自带WebCamTexture在mac上使用导致崩溃或花屏

复现步骤:

  1. mac里要有多个摄像头实例(包括自带摄像头、虚拟摄像头、外接usb摄像头);
  2. 启动自己的app;
  3. 启动会议软件或其他任何一个可以切换摄像头的app;
  4. 在自己的app里随便指定一个摄像头实例,使用RawImage将WebCamTexture呈现出来;
  5. 在步骤3里的app切换不同摄像头;
  6. 自己的app崩溃或花屏;

解决方案:

编写native代码,使用mac自带库AVFoundation获取摄像头相关功能,编译成macOS上的bundle库,在c#里调用接口。

技术实现节点:

  1. 实现bridge,创建一个简单的macOS库,导入unity,使用c#成功调用接口;
  2. 将AVCaptureDevice相关属性映射到c#里,供unity代码逻辑使用;
  3. 实例化一个Device,获取捕获的图片信息,转换到unity的Texture上,供unity使用;
  4. 参考unity的WebCamTexture封装一个管理类,处理所有摄像头的实例化、属性获取/设置、开启/关闭、资源释放;
  5. 测试在其他mac上的兼容性;
  6. 扩展ios兼容性;

题外话:

不会oc,不会xcode,一点一点搞好难,本来想借AI的东风,奈何感觉自己就像一个原始人拿着手枪敲核桃,什么chatGPT、Cursor、Copilot,拿过来一顿输出,然并卵,蛋疼。