而且不管是强光还是黑暗环境下,都不能影响屏幕的透明性,从而影响佩戴者的视野。这要求透明屏幕必须根据环境,来调节其画面的显示强度。

    增强显示画面,势必会影响屏幕的透明度,从而影响佩戴者的视野。而降低显示画面强度,又会影响画面的质量,从而影响观看体验。

    这是一个对立的矛盾问题,想要解决就必须因地制宜。什么时间,那种使用场景下要增强显示画面,什么时候则需要降低显示画面强度。这不仅需要人为进行控制,也需要系统根据相关的使用佩戴环境进行智能自动调节。

    除了显示技术难题以外,再有就是信息数据处理能力了,这个同样分为硬件和软件部分。

    首先硬件部分,ar眼镜可不同于vr眼镜。因为使用的环境和场景不同,ar眼镜需要长期佩戴,并且适应多种环境,所以要求ar眼镜的体积和重量必须尽可能的轻便。

    最理想的状态,那就是一副眼镜,或者说比眼镜大不了多少,也重不了多少,太大太重都会影响佩戴使用体验。

    同样矛盾的是,如何在尽可能轻和小的情况下,放置大量的硬件设备,这对于整个硬件的集成化和整合能力都有着超高的要求。

    目前普遍做的是将这些硬件设备集成安装在眼镜两端的镜架镜腿上,可即便是如此,还是非常笨重,佩戴起来很不方便。

    因为体积和重量的限制,所以注定硬件设备的功率不可能太强,这也极大的限制了系统的运算处理能力。如何提高系统的信息数据处理能力,这也是研发团队必须要解决的难题。

    虽然随着5g技术的推广普及,信息数据的高速传播已经不是什么问题。但是如何接收及时的处理这些海量的信息,也是一个非常棘手的问题。

    单一环境下还可以,如果是在复杂环境下呢。

    假设一个场景,当你走在一个繁华的十字街头,周边所有的建筑,广告牌,乃至一些设施都设置了ar演绎功能。这也就意味着你的ar眼镜要一下子接受大量的ar数据信息,并同时显示在你的屏幕画面中,这对于处理器和系统可有着极大的要求。

    最后一个难题,那就是在交互系统方面。vr可以采用穿戴式手套传感器或者是手持操作柄进行控制。

    ar就不行了,因为ar要适应于多种环境和场景,所以必须要有一套更加简单直接的方式才行。

    目前为此想到的总共有三种方式,首先第一种眼球跟踪控制技术。

    通过眼球捕捉传感器来实时的捕捉眼球的转动,眨眼,以及眼球聚焦中心来进行交互控制。这项技术目前已经实现,并在很多设备上面都有很好的应用表现。

    一般情况下,这项技术也会配合头部运动传感器来进行使用。比如你抬头向上看的时候,屏幕显示内容向上滑动;低头向下看的时候,屏幕显示内容向下滑动。向左向右看的时候,屏幕显示内容也会相应的向左向右进行滑动。

    当你眨眼的时候,可以进行确定选定等操作。比如眨一下眼睛是确定,两下是撤销等等,这就相当于鼠标的左右键。

    而眼睛聚焦的焦点呢,也正好对应了鼠标的光标。你往哪里看,焦点就在哪里,和鼠标滑动的光标一样非常灵活。

    第二种方式呢,则是采用手势控制技术,利用传感器捕捉前面手势的移动变化来进行交互控制。

    比如手向上向下滑动,屏幕显示内容也会向上向下滑动,向左向右也是如此。手指拉动还可以移动屏幕位置,或者放大和缩小屏幕。手指点击确定,挥手撤销等等。

    手势识别控制技术,目前发展的也很快,但想要识别高速运动的手势变化,还是有一些困难。这就要求传感器必须对手势有着精准的识别捕捉能力,同时处理器也能够快速准确将这些手势转换成相关的操作指令。

    还有一点,那就是每个人的手势操作姿势都不相同,或者说每个人每次的操作手势也都不相同。哪怕是一个手势,不同时间环境场景下也都会有一些变化。

    而这就给系统的捕捉识别带来了一定的困难,也因此要求系统必须要有很好的容错性。

    第三种交互方式,则就看上去比较科幻了,也就是近来大火的脑机控制技术。简单来说,就是通过思维想象来控制操作。

    我们人在想象一件事情或者说一个画面一个物体的时候,所释放出来的脑电波是不相同的。而脑机控制技术,就是利用我们人这些不同的脑电波来对设备进行控制交互。

    比如你大脑想象一个向前运动的想法后,大脑会释放这样一种脑电波,脑机系统会识别这种脑电波然后转换成相应的电信号指令,来控制设备进行向前运动。

    目前这项技术已经运用到一些领域,其中就有为高位截瘫患者所打造的这种脑机控制轮椅。患者可以通过大脑控制轮椅进行运动停止等等。

    还有就是利用这种脑机控制技术,来进行文字的相关输入。据称输入速度能达到每分钟70个字,可以说十分的迅速。
本章未完,请点击下一页继续阅读》》

章节目录

军工科技所有内容均来自互联网,书林文学只为原作者止天戈的小说进行宣传。欢迎各位书友支持止天戈并收藏军工科技最新章节