机器之心报导
参加:蛋酱
捏一捏、拽一拽,就能操控音乐播映和网页跳转,谷歌的这款「线控」神器让人等待。
从可触控牛仔夹克到 Pixel 4 的姿势辨认雷达,谷歌从未中止过对别致交互办法的寻求,
现在,它又推出了一款「智能编织绳」,你可以终究靠捏、叩击、歪曲、揉捏、轻滑等动作,来操控这条绳所衔接的电子设备。
现在,这款智能编织绳还仅仅一个试验项目,但谷歌现已提出了将其融入电子设备的 n 种办法。
比方作为智能手机扬声器的电源线或许耳机线,如图所示,叩一下是「播映/暂停」的意思,叩两下是「切换下一首」,扭动是「调理音量」,这与某些蓝牙耳机的触控办法很类似。
或许你也可以打造一件带有感应式拉绳的连帽卫衣,将它衔接到手机,操控音乐播映。
假如厌恶了鼠标,也能用它来阅读网页:
轻松一下,Windows 98,一根绳子即可灵敏应对俄罗斯方块:
技能解读
所以,这些灵敏的交互功用是怎么引进一根编织绳的?谷歌在论文《E-Textile Microinteractions: Augmenting Twist with Flick, Slide and Grasp Gestures for Soft Electronics》中介绍了这一「智能编织绳」的完成原理,现在该论文已被人机交互范畴顶会 ACM CHI 2020 接纳。
这种微交互有多种形式:比方歪曲便是一种接连感应,滑动和轻击算是不接连的感应,捏住、抓住、拍则是不接连的握力。
谷歌介绍说,这根绳子可以终究靠电容感应来检测根本的触碰,但绳子也使用了一种名为「螺旋感应矩阵(HSM)」的技能,这是一种由电绝缘的导电纺织纱线和无源支撑纱线组成的编织物,然后可以 360 度地辨认人手的触摸动作,来辨认用户的指令。
光纤也被包含在绳子之中,经过显现不同强度的光束,来供给实时视觉反应。
模型练习
谷歌的研究者从 12 名志愿者那里收集了 864 个触摸动作的数据样本(12 人别离演示 8 种手势,每种重复 9 次),在此基础上对模型进行练习,使得模型可以辨认出各种不同的手势。
每位参加者均可依照自己的办法来进行触摸操作,由于分类高度依赖于用户的风格(触摸办法)、偏好(怎么捏和抓)以及解剖结构(手的巨细)。
有必要留意一下的是,重复感应矩阵中的内涵联系很合适机器学习分类,使得分类器可对有限数据进行快速练习。在试验过程中,典型手势的练习时刻不到 30 秒,与练习指纹传感器所需的时刻差不多。谷歌表明,该模型辨认不同手势的准确度已达到了 94%。
但假如嵌入消费品的话,辨认准确度或许暂时还没这么高。另一个存在的问题是,假如将该技能嵌入到耳机之中,也难保用户在调理音量的时分失手。
何时上市开售?这个还无法确认。从两年前发布的「谷歌 x 李维斯联名智能牛仔夹克」来看,或许谷歌正在寻找一个心意相通的合作方,将这根智能编织绳打造成联名款。
参阅链接:
https://ai.googleblog.com/2020/05/enabling-e-textile-microinteractions.html
https:///2020/5/19/21263386/google-io-braid-experimental-fabric-user-interface-controls
机器之心联合AWS开设线上公开课,经过6次直播课程协助咱们者了解 Amazon SageMaker 各项组件的使用办法,轻松玩转机器学习。第1课将于5月26日20:00开端,由AWS解决方案架构师苗锋带来《手把手、端到端,玩转生成对立网络(GAN)》
咱们还预备了1000元服务抵扣券,协助咱们上手实践SageMaker,辨认二维码,保藏直播间。