纵观这几天的 Apple WWDC 2023 发布会,苹果确实带来很多令人兴奋的产品和一些很炫酷的软件体验上的功能,硬件产品有新款的 Mac Book Air 15寸、Vision Pro 眼镜;苹果作为一家软硬件通吃的厂商,在把软件和硬件功能整合是做的最为完美的,当前最新的 iOS17 中添加了 Standby 功能,Vision Pro AR 的生物眼球捕捉技术和手势捕捉技术是目前最好的证明。

昨天的 iOS 的 Standby 功能,其实开发者自己用软件功能也可以实现,个人感觉主要还是卖底座支架的,人是视觉动物 80% 信息输入都是靠着视觉,Apple 这次更新更多还是关注视觉上的更新和用户体验。

整个开发者大会上我个人认为最有亮点的是基于 AirDrop 功能,新型碰一碰社交功能的设计,设备之间碰一下即可交换设备主人设置好的联系方式,感觉腾讯要抄袭这个功能了,比微信扫一扫就方便多了,如果 Apple 在 CallKit 开发者 SDK 中提供这个功能,那么未来可能会有更多基于这种 App 产品出现。

对应喜欢社交朋友确实是一个不错方式,另外这个设备碰设备的设备要比在互联网上使用传统的社交软件要更有一种创新能力,最主要的是要让用户动起来,要拿着手机去外面和人们搭讪才能达到物理世界的碰一碰。此功能一出对于经常泡吧的海王和海后真是一种福利,或者你坐在公交车或者地铁以后就没有人用记事本打字的方式要联系方式了,而是换成设备之间碰一碰就拿到对方联系方式。那么对于 Apple 来说以后大街上的使用 iPhone 的人会越来越多,让软件带动整体 Apple 设备的销售额。对应其他手机厂商来说,就是 TMD 赶紧抄袭,Copy To China !!!我个人其实是很鄙视这种没有自主创新能力的厂商的。

另外 Vision Pro AR 眼镜看样子软件生态还是一个问题,相比 Quest 和 Pico 目前销售方式是返现和 0 元购有什么区别,要让整个 Vision Pro AR 生态发展起来,那就必须要让一部分用户用起来,从目前整个价格来看只有土豪用户才能玩得起了,或者等着全球各地的 Apple Store 到货啦可以现场去体验一下。

作为技术宅应该根据它们发布会来试着做逆向工程来推理出 Vision Pro 应该使用了哪些技术,Vision Pro AR 眼睛能做到提供手势控制完全依靠着眼睛底部那些传感器和立体全方位摄像头捕捉用户动作,然后做出对应 App UI 切换动作;根据眼球 👀 来控制 App 选择和切换 App 这个技术到不是什么新奇的,伟大物理学家和宇宙学家霍金的轮椅曾经就配有过这种技术,跟踪眼球实现打字交流效果,使得植物人的霍金能提供电子设备的辅助帮助完成和正常人的交流。

但是目前还不确定它是否根据的是人类的黑白眼球转动来做出动作,人类的眼球上是有黑白区分的,当然也有其他有色人种的眼球不是黑白的,但是总体是有分界区的,可以根据转动倾斜角度来传感器来推测用户在看什么地方,而某些动物眼球完全是黑色的,那可能这种技术就会失效。

让我意想不到的是小岛秀夫会串客来 WWDC 并且来了 《死亡搁浅》 ARM 架构上的游戏版本,我个人感觉 《死亡搁浅》 是没有 《合金装备》系列好玩的,最后希望小岛秀夫工作室会 Apple 合作开发带来和 《合金装备》系列一样的大作品,在 MacOS 平台上独立发售,回忆最后一次玩他的作品是 2016 年的时候了。


其他资料

便宜 VPS vultr
最后修改:2023 年 07 月 18 日
如果觉得我的文章对你有用,请随意赞赏 🌹 谢谢 !