FILA之后又有Amer,安踏能成为“世界的安踏”吗?
图片来源@视觉中国
文丨螳螂财经(ID:TanglangFin),作者丨陈曦
瑞幸被浑水做空之后,其财务造假大白于天下,近期,瑞幸已经收到了纳斯达克要求其退市的通知。
瑞幸的这一出,让普通消费者也知道了浑水这样一个“浑水摸鱼”专做空的机构。提到浑水,人人变色。
但是,就在去年,曾有一支中概股不仅顶住了浑水的做空,股价还翻了一番。这支中概股就是安踏体育。
2019年7月,浑水连发数份沽空报告,安踏股价一度下跌超过8%,但很快就恢复上涨的趋势。换句话说,如果你在2019年初买入了安踏体育的股票,并且没有在7月被吓退,那么现在它已经翻倍了。
浑水为什么要做空安踏呢?安踏又是怎样让浑水铩羽而归的呢?此后,安踏真的是一条坦途了吗?
一、都是FILA惹的祸
浑水做空安踏,全是因为FILA。
FILA是一家意大利运动品牌,安踏在2009年的时候从百丽手中购入了其大中华区业务,成交价为6.5亿港元。FILA在百丽经营期间门店不足50家,而且一直都是亏损的。事实上,FILA虽然有百年历史,但在意大利来说,它并不是一个高端品牌。但意大利嘛,似乎天然就带有奢侈品的基因,比如Gucci、Amani、Bvigari、Prada等等,那为什么FILA就不能成为体育界的Prada呢?于是,安踏体育在接手之后,将“时尚运动”作为其主打方向,走中高端路线。
2014年,FILA成功实现转亏为盈,也就是这一年,安踏开始保持双位数增长;2015年,安踏营收突破百亿元门槛,达到国内体育用品公司的业绩最高点。
FILA的高增长正是浑水的攻击点之一。浑水质疑,FILA可能存在财务作假,并将不属于安踏的FILA财务数据一同并表。而且,在2019年7月之前,安踏的报表中从没有单独披露过FILA的业绩,这也被业内人士认为是安踏遭遇做空的原因。
安踏正面硬刚浑水,强硬地回应了浑水的沽空报告。在随后公布的2019年三季度报中,安踏就披露了FILA的运营情况和开店数量。
FILA确确实实再造了一个安踏。
在近期安踏体育(2020.HK)披露的2019年财报中,安踏体育在2019年共录得339亿收入,其中安踏品牌为174.5亿,占比51.5%,FILA品牌为147.7亿,占比43.6%。FILA同比增长高达73.9%。
在收入上,FILA已经可以与安踏品牌平分秋色了,如果再看利润,则会发现,原来FILA已经成为了安踏的造血机。2019年安踏体育的全年毛利润为186.6亿元,FILA贡献了104亿,安踏品牌贡献了72亿,其他品牌贡献了10.6亿。FILA毛利占比达到了55%。
尽管没有FILA,安踏品牌的收入也足够使其成为四大国产体育用品品牌中的领头羊,但是其与第二名李宁的差距并不大。有了FILA,安踏体育才真正甩开了二三四名。
二、为什么FILA如此能打?
为什么FILA能够给安踏体育带来如此大的收益呢?“螳螂财经”认为,至少有以下三个原因:
第一,站在风口上的猪
2008年的北京奥运会将全民运动潮推向了顶峰,同时带动的还有体育服装、体育用品等相关产业。从下图可以看出,中国运动鞋服市场从2008年开始,基本是稳步向上。
一位体育从业者曾对2008年后的体育产业繁荣做过一个比喻:李宁、安踏、耐克都进了电梯,一个在里边跑步,一个在里边做俯卧撑,一个在里边拿大顶。别人问他们是怎么上来的,他们说,跑步、做俯卧撑、拿大顶上来的,其实都错了——是电梯把他们拉上来的。这电梯,指的就是2008奥运刺激下的整个中国体育产业的勃兴。
自此之后,一发不可收拾。据“某企业信息查询平台”专业版数据分析,2000年到2020年这20年间,我国共新增体育用品相关企业423万家。其中,2000年新增2.2万家,2014年,相关企业的新增速度显著加快,仅2014年当年就新增相关企业20.6万家,2019年的相关企业新增量达到了目前为止(2020/03/25)的最高峰,共138.5万家,是2000年新增量的63倍左右。
第二、“拿来主义”替代自己摸索。
尽管运动鞋服市场一片热闹,但当时普遍存在的问题是,阿迪达斯和耐克虽然好看,但价格太高,而国产品牌李宁、安踏、特步、361°、鸿星尔克、匹克等等,无一例外,都带着“土味儿”。
从高档到低档之间,缺乏一个过渡档。谁能弥补这个空档,谁就能迅速壮大。
在这个关键的选择上,李宁选择自己单干,安踏则选择收购现成品牌。于是,我们能发现,李宁越来越朝着“潮”的路子在走,而安踏自此开启了“买买买”的节奏。2009年,安踏买下了意大利运动品牌FILA;2010年,李宁则把品牌定位改为“90后李宁”。
两大品牌走向了不同的路,他们的结果也截然不同。
李宁是迷茫的。李宁跑训鞋产品设计部首席设计师孙京颐在接受《三联生活周刊》的记者采访时回顾到:“那时,品牌重塑、品牌年轻化问题是每个品牌都面临的状况,我们也想做出改变,但那时消费者的需求也不是那么明确,我们不知道往哪个方向改是有效的,我们的产品并没有受到年轻人的喜欢。我们迷茫了好一阵子。”
这样的迷茫,让李宁拱手让出了国内品牌的头把交椅。
安踏是明确的。安踏凭借着对FILA的精准定位,以及FILA时尚的设计赢取了年轻人的心。在后来安踏面临又一个重要收购时,丁世忠说:“我们慢慢发现特别有意思的一件事情:一件商品是很快就可以制造出来的。再好的商品,哪怕一年做不出来,两年总能做出来。但是品牌是没办法在短时间做出来的,要花20年,甚至50年。”
李宁向左,摸索前行,安踏向右,拿来主义。最终,市场证明了丁世忠是对的。两者的对比,从业绩上就可以看出。在2008年,李宁营收67亿元,安踏为46亿元。在2019年,李宁营收为139亿,安踏为339亿。
第三、强化“FILA”品牌,安踏隐身其后。
在FILA的门店中,消费者看不到任何关于安踏的信息,安踏完全隐身在后。消费者只知FILA,不知道FILA其实就是安踏的子品牌,或许也是FILA能够快速增长的原因之一。就像吉利汽车收购了沃尔沃,但是吉利没有在沃尔沃上留下任何吉利的标签,该买豪车的人还是继续买买买。
三、还能有另一个FILA出现吗?
然而,FILA不是安踏唯一买的品牌。在FILA之后,安踏陆续收购了多家品牌:日本滑雪品牌Descente、英国的城市健步品牌Sprandi、香港的童装品牌kingkow、韩国高端户外登山品牌Kolon Sport。但这几个品牌的开店数和安踏品牌以及FILA根本不在一个数量级上,对营收的贡献也微乎其微。
在2019年2月,安踏又再次大手笔收购了芬兰的Amer Sports。Amer旗下有滑雪产品出名的品牌Salomon萨洛蒙、美国网球装备品牌Wilson、全球三大运动手表之一Suunto颂拓、最著名的品牌就是被称为户外品牌的爱马仕——Arc’teryx始祖鸟了。
从这些品牌中,“螳螂财经”能看到两个共同的特点,一个是贵,一个是专业。
又贵又专业的产品,注定它的消费人群非常小,而且和其他品牌之间壁垒很高。比如,热爱滑雪的人会大手笔买下全套滑雪装备,却很难再去买登山或者网球装备了。这也就意味着,每一个子品牌都需要独立获客,每一个子品牌的客户都要单独维护,无法互通。
而这些获客、维护的成本非常高。从安踏财报可知,尽管FILA的毛利率高达70.4%,但它的净利率只有27.2%,中间的43.2%都用在了销售、管理等各项费用上。而反观走低端路线的安踏品牌,却极为省钱,在毛利率为41.3%的情况下,仍然能够获得26.8%的净利率。
而对于细分领域来说,不只有获客和维护这么简单,专业度也非常重要。如果做不到最好,那就意味着被专业人士抛弃。因此,企业需要投入足够多的研发经费,将这项产品打造成领域内最专业的。但这样一来,这些产品要出圈就更加难了。
如何消化掉花巨资买来的“奢侈品蛋糕”,是目前安踏急于解决的问题。收购Amer近一年,安踏还没有找到盈利的好方法。不过,资本市场对Amer的前景是看好的。
在2019年11月12日,安踏体育曾发布公告,称其以11.98亿港元(约人民币10.74亿元)出售Amer Sports间接权益的5.2517%。买方主要由四家组成,分别为超鸿(2.67%)、晋富(0.83%)、红杉SPV(1.13%)及ZWC资本(0.38%)。
这四大买主背后暗藏玄机。据新浪财经报道,超鸿的背后,是安踏体育四位执行董事丁世忠、赖世贤、吴永华、郑捷;晋富的背后,则是公司高管团队成员;而红杉SPV和ZWC资本都是在消费领域有丰富经验的投资公司。
资本的鼻子是最灵的。“螳螂财经”认为,这或许和即将到来的2022年北京冬奥会有很大的关联。时隔14年,中国再次举办盛大的赛事,或许能够带动冬季运动类产品的消费。而这一块,在国内尚属空白。
或许,安踏想要再坐一次电梯。
然而,这一次的电梯可能就没这么好坐了。就目前来说,冬季运动还是属于一个小众运动,以家庭条件较好的人群为主,人们对装备的专业度要求高,对价格不敏感。
显而易见的是,在冬季奥运会之后,势必会有更多的场馆对普通人开放,也会有更多的人开始学习滑雪等运动。到时候很可能出现的情况是,人们对专业度的要求就不那么高了,反而对价格会逐渐敏感起来。“物廉价美”有可能会是更多人的选择。
那么,安踏旗下那些顶着各种“顶级”装备名头的品牌,要如何应对市场多样化的需求呢?而且,当专业度没那么高的时候,也正是其他品牌蜂拥而至的时候。安踏又如何构筑护城河,守住本来就小而精的这一亩三分地呢?
2022年,对安踏来说将会是一次大考,是再造一个FILA的辉煌故事?还是冲高回落的翻版呢?不管怎样,它都必须进入考场。
具身智能:通向人类智慧的未来之路
图片来源@视觉中国
文 | 追问nextquestion
随着AI技术的进展,ChatGPT等基于大语言模型的聊天机器人已成为我们解决问题的首选。但当我们提出非常私人化、具象化及场景化的问题时,它们给出的答案往往不尽人意。
比如,当询问“我想要学游泳,你能给我一些建议吗?”时,ChatGPT只能提供一些通用的建议,如“呼吸技巧”或“如何让身体浮起来”。这些回答没有针对用户的具体情况,只是泛泛而谈。但假如有一个教练朋友亲自陪你到泳池,向你演示如何在水下屏气,并托住你的腰让你平躺在水面上,告诉你应该如何控制身体以实现浮起,这是否才是你更想要的答案?
这正是“具身智能体”(Embodied Agent)的价值所在,它强调我们不仅要让计算机程序变得聪明,还要让它们像人类一样与真实的物理世界进行紧密的互动。如此,我们才能实现具备人类智能水平,且更接近人类的通用人工智能(AGI)。
AI为什么要有具身智能?
为何我们要追求那种与物理世界紧密互动、且更接近人类的人工智能?将人工智能当作好用、便捷的工具难道还不够吗?
这一追求源于人类对智能的根本期待:我们希望它们不仅能高效地执行如学习、问题解决和模式识别等复杂任务,从而帮助人类去做不愿意,或是不擅长做的事;我们还希望它们能理解人类的思维方式、行为习惯、情感表达,甚至性格偏好和心理特点,真正实现“懂你”的高阶能力。更何况,从人性的角度来说,人类本能地会对更自然、更亲近于自己的事物有好感,而对纯粹机械化、缺乏情感的冰冷工具怀有拒斥之心。
1950年,图灵在其论文中首次提出了人工智能的基本概念,并提出了著名的“图灵测试”,用以判断机器是否能模拟人类智能。同年,阿西莫夫在他发表的短篇集《我,机器人》中描绘了一个人与AI共处的未来世界,并提出了机器人三大定律。因此,自人工智能概念诞生之初,人类就相信并呼唤着一种能以人类语言交流并理解我们的AI ——它不仅能在生活中陪伴我们,还受到伦理道德的约束,最终被人类的情感和性格所引导。
这样看来,当我们讨论“智能”时,实际上是期望AI超越单纯的计算机器,成为一种与人类智能匹敌、拥有创造性思维和感知能力的高级生命体。具身智能则代表了这一愿景的实现路径。
具身智能何以像人?
这么说来,具身智能应如何实现更像人的AI呢?
我们首先需要理解传统人工智能的局限性。目前的AI系统主要依赖于收集的互联网图像、视频或文本数据进行学习。这些数据集虽然制作精良,但它们终究是静态的,是通过人类整理和数据标注的方式实现的。这使得AI在处理信息时缺乏与环境的交流及互动。AI并不能理解其表达背后真正的逻辑思考路径,更不用说自主反思并自我成长了。因而除依葫芦画瓢外,AI自发制造的数据往往与实际情况不符,常常“胡说八道”。这也是传统AI被称为“弱”智能的主要原因。
为此,一些学者立足于人类婴儿认知的研究,从人类智能的发展过程中得到启示,他们认为,真正的智能来源于与周围环境的不断互动和反馈。 正如人类婴儿通过与环境的感知和物理交互,来发展认知能力一样,智能的真正发展需要超越处理抽象信息,深入理解和应对现实世界中的复杂情境。而这正是具身智能概念的出发点。
具体来说,具身智能是一种基于物理身体进行感知和行动的智能系统,其通过智能体与环境的交互获取信息、理解问题、做出决策并实现行动,从而产生智能行为和适应性。 斯坦福大学的李飞飞教授曾经指出,“具身的含义不是身体本身,而是与环境交互以及在环境中做事的整体需求和功能。”同样,上海交通大学的卢策吾教授通过猫学习走路的比喻,形象地描述到,“自由行动的猫是具身的智能,它能够在环境中自主行动,从而学会行走的能力;而被动观察世界的猫,最终却失去了行走的能力。”
与基于静态数据集训练的传统AI不同,具身智能能实时地在真实物理世界中学习和交互,从而能更好地模拟人类学习的方式。它们能像人一样,通过与环境的实际互动获取知识和经验,理解人类的实时反馈和行为,进而掌握非语言的沟通方式,如通过表情和触摸来感知和体验人类的情感表达。这种深度的人机交互和理解,使具身智能成为一种更贴近人类认知和情感的智能形态,有望实现更深层次的人机互动和共融。
具身智能如何做到更像人?
主动性作为具身智能的核心特征之一,主动性赋予了智能系统超越被动信息处理工具的能力,让它们成为积极的参与者。
在Metin Sitti 2021年的论文Physical intelligence as a new paradigm中,他指出,在具身的物理智能层面上,柔性系统可以对环境刺激做出响应……然后根据身体部位与环境条件的自我定位、自我运动和自我感知(本体感觉)得出自我定位,并将其转化为后续行动。这意味着具身智能不仅能感知环境,还能根据感知进行自主的行动。另一篇论文Embodied Intelligence in Physical, Social and Technological Environments同样采用相似的方法定义具身智能:当一个生命在各种感官信息的基础上,自主地对环境采取行动,在这样做的过程中,能够将自己作为一个多感官的积极主动的自我,从而与环境中正在发生的事情区分开来,并加以调节时,它就拥有了具身智能。
这种主动性可以通过一个简单的比喻来理解:当你走进图书馆,遇到一个传统的管理员时,他或许会根据你的请求给到你想要的答案,如一个书名及对应位置。但如果这位管理员是一个具备具身智能的导览顾问,它不仅能够找到你需要的信息,还会主动引导你,找到书籍,并给你讲解相关知识,带你深入了解整个知识的世界。
这种交互方式类似于与一个热情、友好的伙伴一起探索知识,而不仅仅是从一个冷漠的知识助手那里得到答案。 具身智能通过主动性,提供了一种全新的交互体验,这不仅能够增强人类对信息的获取和理解,还能加深人类与智能系统之间的情感和认知联系。
尽管目前的具身智能还未完全实现主动性和热情互动,但以视觉导航的快速发展为例,在如iGibson Sim2Real、Habitat和RoboTHOR等挑战赛中,我们已经见证了这一领域初步形态的涌现,这些成果已经超越了仅仅执行任务的冷漠机器。例如,结合人类先验知识的导航系统能够通过将这些知识以多模态输入形式融入到深度强化学习框架中,如知识图谱或音频输入,进而使AI能够在未知环境中学习导航并寻找未见过的物体。
最新的视觉语言导航(VLN)技术致力于创建一种能够通过自然语言与人类交流,并在真实3D环境中自主导航的具身智能。目前,该领域已经利用多个数据集进行研究和开发,如REVERIE、R2R、CVDN、GELA、ALFRED、Talk2Nav、Touchdown等,同时也产生了一些创新的网络架构,如辅助推理导航框架。这些技术应用于机器导航、辅助技术和虚拟助手等领域,尚处于初级阶段。
此外,VLN的拓展视觉对话导航,旨在训练AI与人类进行持续的自然语言对话,以辅助导航。在这个领域,研究者们使用了一种跨模态记忆网络(CMN),该网络分别拥有语言和视觉记忆模块,用于记忆和理解与过往导航动作相关的信息,并利用这些信息来作出导航决策。
实时性实时性是具身智能另一个核心特性,它使得智能系统能够在真实世界中及时学习并迅速反馈。具备实时性的具身智能能够在接收到新信息或遇到新环境时立即做出响应。 与此相比,传统的人工智能依赖于预训练的数据,在面对实时变化的环境时难以快速反应。
以电视节目为例,观看录播的魔术表演就像是与传统AI的互动:虽然内容精彩,但你只能被动地观看预先录制的内容,不能实时中断或更改节目内容。相比之下,观看现场直播的魔术秀则更类似于与具身智能的交互:你可以实时提出需求,魔术师则根据这些需求在现场即兴表演,就好像在为你个人定制节目一样,你不再是一个被动的观众,而是整个魔术秀的一部分。这种互动方式不仅更加个性化,也更具参与感。
故而,和现场表演的魔术师一样,具身智能能够即时响应人类的需求和环境变化,提供更为贴合实际情况的解决方案,并以更贴近于人际交往的方式与人类互动。这种实时性帮助它更好地融入人类的日常生活,成为一个更加智能和有用的伴侣,而不仅仅是一个执行预设任务的机器。
在论文LLM-Planner: Few-Shot Grounded Planning for Embodied Agents with Large Language Models中,研究团队提出了LLM-Planner方法。这种方法利用大型语言模型的能力,能为具身智能进行少样本规划,并通过物理基础来增强语言模型,从而生成和更新与当前环境相关的计划。 其优势在于它能够实时反映和适应环境的变化,为具身智能的决策提供即时的信息和指导。
情境性除主动与实时之外,具身智能对特定的场景和情境的反馈应该有深入的感知和个性化的理解。
就像人类在与周围环境互动中实时调整自己的行为一样,具身智能应该通过实时学习和反馈,深刻地理解所处的情境,并据此调整其行为。 它能够根据上下文和环境的变化灵活地调整回应方式,融入当前的情境中,从而实现更自然和有效的交流。例如,具身智能能够感知用户的情绪变化,并据此提供个性化的体验,增强用户的参与感和满意度。
以旅游规划为例,传统的聊天智能可能仅能提供固定的行程建议,而不管雨雪风霜,甚至有可能在雷暴雨的天气,依然为用户安排露天温泉的行程。具身智能则能够根据用户的个人偏好、当地环境和天气状况等因素提供更加贴合实际的建议。它更像一位熟悉当地情况的私人旅行顾问乃至私人摄影师。它不仅知道你的目的地,还熟知周围的情境,了解环境变化;能够根据你的私人偏好和当地时令,带你去合适的小馆子就餐,并记录下你每个快乐时刻的印记。
目前已经存在大量逼真且公开泛用的3D场景,可以作为具身智能训练的模拟环境。针对具身导航的虚拟环境有iGibson、Habitat、MultiON、BEHAVIOR等;针对具身问答的有ALFRED;关注情景理解、物体状态和任务规划的环境有AI2-THOR、ThreeDWorld、Habitat 2.0等;关注物体操纵的有SAPIEN、RLBench、VLMbench、RFUniverse、ARNOLD等;物体抓取及操纵信息数据集包括GraspNet、SuctionNet、DexGraspNet、GAPartNet等。这些场景比以往研究模拟器所用的环境要真实得多,极大地促进了具身智能在情境性的初步开发。
此外,传感领域的技术进步,也为情境性的具身智能发展提供了可靠保障。例如,PaLM-E团队提出了具体化的语言模型,将真实世界的连续传感器模态直接结合到语言模型中,从而建立单词和感知之间的联系。这种模型的输入是多模态语句,它们将视觉、连续状态估计和文本输入编码交织在了一起。结合预训练的大型语言模型,对这些编码进行端到端训练,可用于多个具体任务,如顺序机器人操作规划、视觉问题解答和图像视频字幕描述,有效地构建了单词和感知之间的联系。
拟生物较之一般的人工智能,具身智能需要应对复杂的环境,并被要求以更接近人类的认知方式来与现实世界共处,这就使得它体现出了更多的模仿生物的特征。
就像蜜蜂群体协同工作以建造蜂巢,具身智能中的多个智能体能够共同协作,产生超越单个智能体能力的集体效应。这种群体协作不仅超越了单个智能体的能力,还展示了复杂系统中的涌现现象。在这些系统中,个体智能体的简单行为和互动,可能导致整个系统出现复杂的行为模式和结构形态,使得系统能够适应新的环境和任务,而无需依赖预先设定的编程规则。
此外,具身智能系统中的自组织性是其拟生物特性的关键部分。智能体能够根据环境变化和相互作用动态地调整自己的行为和结构,形成更高级别的功能和结构,从而使系统具有更强的鲁棒性和适应性。
具身智能的这些特性在多种应用中得到了体现。有研发团队专门设计了一种水下软体机器人,其灵感来源于细菌的形态。这种生物启发的模块化结构使机器人能够在水下环境中执行多种任务。这种机器人利用其周围的环境(水)、目标的形状以及机器人本身的顺应性,通过少量的控制输入来实现有效的导航和安全交互。这种建模方法和设计不仅展示了具身智能在模仿生物体方面的创新,也体现了它在实际应用中的多功能性和适应性。
总之,具身智能领域的技术发展呈现出多样化和综合化的趋势,特别是在观察、操纵和导航等方面的进步尤为显著。 这些技术的发展不单单针对具身智能的某个特定特性,而是综合了多方面的功能和能力,以实现更高的适应性和灵活性。
通过结合机器人的传感器数据和一般的视觉语言数据进行联合训练,特别是利用大语言模型的强大内在知识,可以帮助具身智能在面对复杂和未知的真实世界环境时,进行有效的动态学习和泛化。例如,LLM-based Agent(基于大语言模型的智能体)以其独特的语言能力为优势,不仅作为与环境交互的工具,还能将基础技能转移到新任务上,从而使机器人能够根据人类的语言指令适应不同的操作环境。
此外,通过嵌入式行动规划,利用高层策略指导低层策略的子目标,从而使低层策略生成适当的行动信号,可以使机器人在执行任务时更加高效和可控。这种策略的应用可以使具身智能在处理复杂任务时更接近人类的决策模式。为了更有效地完成导航和其他复杂任务,具身智能还需要内存缓冲区和总结机制,以便参考历史信息并更好地适应未知环境。
近年来,谷歌公司的Everyday Robot项目SayCan系统,已经将机器人和对话模型结合,完成一个包含16个步骤的长任务;伯克利的LM Nav项目,则用三个大模型(视觉导航模型ViNG、大语言模型GPT-3、视觉语言模型CLIP)教会了机器人在不看地图的情况下按照语言指令到达目的地;上文提到的谷歌与柏林工业大学推出的PaLM-E模型更是在具身智能的多模态理解和执行方面取得了显著的进展。
能够发现,具身智能的技术发展正迈向一个更加综合、灵活且高效的方向。 这些技术的融合和发展,不仅提高了智能系统的适应性和实用性,也为未来的智能系统设计和应用开辟了新的路径。随着技术的不断进步,我们可以期待具身智能在更多领域的实际应用和创新突破。
人工智能与人类智能的关系
为了深入理解人工智能(AI)和人类智能(Human intelligence,HI)之间的差异,并探索如何缩小这一差距,结合对具身智能特性的考量,Shanda AI Lab LEAF团队提出了五性原则,以对照分析AI的发展方向 (在后续的“智能渐近线”系列报告中,我们会不断扩充五性的内容)。这些原则不仅与具身智能的四大特性相互呼应,还深入探讨了AI发展的关键方面,以期望使AI更接近于人类智能的复杂性和适应性。
1)逻辑性
AI应具备类似于人类大脑的逻辑思考和理解能力。具体来说,就是AI能够在复杂的社交场景中,结合已有的各种知识储备进行综合运算及推理,理解语义及语义背后的复杂内涵,最终给出相应的输出。
2)感知力
AI需要具有强大的感知能力,能识别和关联多种信号,并能进行类似于人类的想象和通感。它不仅能够理解聊天输入,同时也能处理多种类型的输入信息;能够像人一样,快速地对周围环境的变化和各种刺激做出迅速的反应。
3)实时性
AI系统可以做到信息的实时更新、随时取用、随环境而反馈;它可以学习人类的记忆模块的能力,通过上下文学习和情境学习等方式,从有限的实时信息中进行类比学习,理解新的任务。
4)主动性
AI能够靠积极主动的、有目的性的行为,来完成类似于人类执行功能的事物处理能力,包括设定目标、规划流程、分解任务、使用工具方法、管理时间和组织安排等方面;这也就意味着AI需要在真实环境中学习大量实际的经验,并对上下文和具体情境能够有实时调整的能力,进而可以依据实际的场景自主决策,灵活安排并主动交互。
5)适应性
AI具备主动感知和理解世界的能力,以及能够与环境进行双向的、动态的交互;这种适应性不仅限于机器对输入的响应,还包括系统能够根据内部知识做出合适的决策,并通过特定的行为来改变周围的环境;在社会学意义上,意味着人工智能能够以近似人类的方式与世界进行深度互动,并理解世界的复杂性。
显而易见,要想让人工智能更接近人类智慧,其先决条件是让人工智能理解并学习人类认知世界的方式,进而以类似人类思考决策的方式去行动。
作为典型的强智能体,人类在成长过程中较少的依赖当前深度学习中采用的监督学习范式。相反,人类关键性技能的发展,如行走、使用工具、学习新的技能,都依赖于身体力行的尝试。同样,具身智能通过与环境的互动,虽然面临第一视角得到数据的不稳定,但它能够通过类似人类的中心感知方式来学习,并真正地在实际环境中应变和理解,从而从视觉、语言和推理过渡到人工具身(Artificial Embodiment)。
具身智能的发展
近年来,“具身智能”逐渐成为热门的研究方向,吸引了计算机视觉、自然语言处理和机器人等众多领域的研究兴趣。自2017年第一届机器人学习大会CoRL(Conference on Robot Learning)召开以来,我们见证了机器人学习领域的快速发展,包括大量新的智能任务、算法、环境的涌现。在接下来的几年里,特别是2018年和2019年的CoRL会议上,大量的具身智能学术任务开始被提出并受到关注,包括具身视觉导航、具身问答系统等。
到了2023年,CVPR 2023具身智能研讨会更是组织了AI Habitat、AI2-THOR、iGibson、Sapien仿真器的物体重排列、具身问答、具身导航和机器人操作挑战赛。这些具身智能任务与其他线上AI任务具有完全不同的范式,即利用具身智能体(如机器人)“看”、“说”、“听”、“动”、“推理”等方式,与环境进行交互和探索任务目标,从而解决环境中的各项挑战性任务。
总结来看,人工智能学习并理解人脑的认知范式,进而接近于人的智慧,将是大势所趋;而具身智能,尤其是模拟人类的具身智能,是人工智能趋向于人类智能的可行的高效捷径。
参考资料:
1. “具身智能 | CCF专家谈术语”,作者:卢策吾、王鹤;https://www.ccf.org.cn/Media_list/gzwyh/jsjsysdwyh/2023-07-22/794317.shtml2. “稚晖君独家撰文:具身智能即将为通用机器人补全最后一块拼图”,作者:稚晖君、甲子光年;https://www.thepaper.cn/newsDetail_forward_243928573. “李飞飞团队发布“具身智能”成果:机器人接入大模型直接听懂人话“,作者:福布斯中国,https://new.qq.com/rain/a/20230711A03ZV0004. “何为‘具身智能’?”作者:吴易明、梁晶;https://mp.weixin.qq.com/s/5alsxh4Vw15j_YrGMGfelQ5. “为什么说具身智能是通往AGI值得探索的方向?上海交大教授卢策吾深度解读”,作者:卢策吾、机器之心;https://mp.weixin.qq.com/s/MM_VLWmrrxev1zWuLKZZUQ6. “《综述:全新大语言模型驱动的Agent》——4.5万字详细解读复旦NLP和米哈游最新Agent Survey”,作者:兽族机枪兵;https://zhuanlan.zhihu.com/p/656676717;7. “The Rise and Potential of Large Language Model Based Agents: A Survey”,作者:Fudan NLP Group、miHoYo Inc;https://arxiv.org/pdf/2309.07864v1.pdf;8. “【渔夫关注】AI下一站——具身智能 正在走向现实”,作者:愚渔娱鱼;https://xueqiu.com/6253558369/250659786;9. “具身智能综述和应用(Embodied AI)”,作者:上杉翔二;https://blog.csdn.net/qq_39388410/article/details/128264098;10. “A Survey of Embodied AI: From Simulators to Research Tasks”,作者:Jiafei Duan, Samson Yu, Hui Li Tan, Hongyuan Zhu, Cheston Tan;https://arxiv.org/abs/2103.0491811. “LLM-Planner: Few-Shot Grounded Planning for Embodied Agents with Large Language Models”,作者:Chan Hee Song, Jiaman Wu, Clayton Washington, Brian M. Sadler, Wei-Lun Chao, Yu Su;https://arxiv.org/abs/2212.0408812. “QT-Opt: Scalable Deep Reinforcement Learning for Vision-Based Robotic Manipulation”,作者:Dmitry Kalashnikov, Alex Irpan, Peter Pastor, Julian Ibarz, Alexander Herzog, Eric Jang, Deirdre Quillen, Ethan Holly, Mrinal Kalakrishnan, Vincent Vanhoucke, Sergey Levine;https://arxiv.org/abs/1806.1029313. “Review of Deep Reinforcement Learning for Robot Manipulation”,作者:Hai Nguyen; Hung La等;https://ieeexplore.ieee.org/document/867564314. “PaLM-E: An Embodied Multimodal Language Model”,作者:Danny Driess, Fei Xia, Mehdi S. M. Sajjadi, Corey Lynch, Aakanksha Chowdhery, Brian Ichter, Ayzaan Wahid, Jonathan Tompson, Quan Vuong, Tianhe Yu, Wenlong Huang, Yevgen Chebotar, Pierre Sermanet, Daniel Duckworth, Sergey Levine, Vincent Vanhoucke, Karol Hausman, Marc Toussaint, Klaus Greff, Andy Zeng, Igor Mordatch, Pete Florence;https://arxiv.org/abs/2303.0337815. “Embodied Artificial Intelligence: Trends and Challenges”,作者:Rolf Pfeifer, Fumiya Iida;https://www.semanticscholar.org/paper/Embodied-Artificial-Intelligence%3A-Trends-and-Pfeifer-Iida/4e3e2bbc38bbe239423c755d7682e647e898935816. “Embodied intelligence via learning and evolution”,作者:Agrim Gupta, Silvio Savarese, Surya Ganguli & Li Fei-Fei;https://www.nature.com/articles/s41467-021-25874-z17. “Systems Challenges for Trustworthy Embodied Systems”,作者:Harald Rueß;https://arxiv.org/abs/2201.0341318. “Embodied neuromorphic intelligence”,作者:Chiara Bartolozzi, Giacomo Indiveri & Elisa Donati;https://www.nature.com/articles/s41467-022-28487-219. “From Machine Learning to Robotics: Challenges and Opportunities for Embodied Intelligence”,作者:Nicholas Roy, Ingmar Posner, Tim Barfoot, Philippe Beaudoin, Yoshua Bengio, Jeannette Bohg, Oliver Brock, Isabelle Depatie, Dieter Fox, Dan Koditschek, Tomas Lozano-Perez, Vikash Mansinghka, Christopher Pal, Blake Richards, Dorsa Sadigh, Stefan Schaal, Gaurav Sukhatme, Denis Therien, Marc Toussaint, Michiel Van de Panne;https://arxiv.org/abs/2110.1524520. “Embodied Intelligence in Physical, Social and Technological Environments”,作者:Ilona Straub,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012024/meta21. “Embodied Artificial Intelligence: Enabling the Next Intelligence Revolution”,作者:Josie Hughes1, Arsen Abdulali, Ryman Hashem and Fumiya Iida,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/01200122. “A concise guide to modelling the physics of embodied intelligence in soft robotics”,作者:Gianmarco Mengaldo, Federico Renda, Steven L Brunton, Moritz Bächer, Marcello Calisti, Christian Duriez, Gregory S Chirikjian, Cecilia Laschi;https://www.nature.com/articles/s42254-022-00481-z23. “Catalyzing next-generation Artificial Intelligence through NeuroAI”,作者:Anthony Zador, Sean Escola, Blake Richards, Bence Ölveczky, Yoshua Bengio, Kwabena Boahen等;https://www.nature.com/articles/s41467-023-37180-x24. “Embodied intelligence weaves a better future”,作者:Dongdong Jin & Li Zhang;https://www.nature.com/articles/s42256-020-00250-625. “Embodied Intelligence: Driving the digital transformation 2.0”,作者:Volkmar Doericht,Markus Duchon, Cornel Klein & Ioana Olaru;https://www.researchgate.net/publication/371418945_Embodied_Intelligence_Driving_the_digital_transformation_2026. “Human-in-the-loop Embodied Intelligence with Interactive Simulation Environment for Surgical Robot Learning”,作者:Yonghao Long, Wang Wei, Tao Huang, Yuehao Wang, Qi Dou;https://arxiv.org/abs/2301.0045227. “A Survey of Embodied AI: From Simulators to Research Tasks”,作者:Jiafei Duan, Samson Yu, Hui Li Tan, Hongyuan Zhu, Cheston Tan;https://arxiv.org/abs/2103.0491828. “Swarm Intelligence and Cyber-Physical Systems: Concepts, Challenges and Future Trends”,作者:Melanie Schranz, Gianni A. Di Caro, Thomas Schmickl,Wilfried Elmenreich等;https://www.sciencedirect.com/science/article/abs/pii/S221065022030415629. “Embodied Intelligence & Morphological Computation in Soft Robotics Community: Collaborations, Coordination, and Perspective”,作者:S.M. Hadi Sadati, Marwa ElDiwiny, Surya Nurzaman, Fumiya Iida and Thrishantha Nanayakkara,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/01200530. “Embodied AI beyond Embodied Cognition and Enactivism”,作者:Riccardo Manzotti,https://www.researchgate.net/publication/334515423_Embodied_AI_beyond_Embodied_Cognition_and_Enactivism31. “Artificial Pain May Induce Empathy, Morality, and Ethics in the Conscious Mind of Robots”,作者:Minoru Asada,https://www.semanticscholar.org/paper/Artificial-Pain-May-Induce-Empathy%2C-Morality%2C-and-Asada/8d7af638f1ee26744c0a52e054692b9e5840eed532. “Interaction Histories and Short-Term Memory: Enactive Development of Turn-Taking Behaviours in a Childlike Humanoid Robot”,作者:Frank Broz,Chrystopher L. Nehaniv,Hatice Kose & Kerstin Dautenhahn;https://arxiv.org/abs/1202.560033. “Nonconscious Cognitive Suffering: Considering Suffering Risks of Embodied Artificial Intelligence”,作者:Steven Umbrello & Stefan Lorenz Sorgner;https://www.sciencegate.app/document/10.3390/philosophies402002434. “Rilkean Memories and the Self of a Robot”,作者:Antonio Chella;https://www.researchgate.net/publication/332654686_Rilkean_Memories_and_the_Self_of_a_Robot35. “Embodiment: The Ecology of Mind”,作者:Paul Dumouchel;https://www.mdpi.com/2409-9287/4/2/1236. “Enactivism and Robotic Language Acquisition: A Report from the Frontier”,作者:Frank Förster,https://www.researchgate.net/publication/331619829_Enactivism_and_Robotic_Language_Acquisition_A_Report_from_the_Frontier37. “The Problem of Meaning in AI and Robotics: Still with Us after All These Years”,作者:Tom Froese & Shigeru Taguchi,https://philpapers.org/rec/FROTPO-1438. “Embodied Intelligence in soft robotics: joys and sorrows”,作者:Cecilia Laschi;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012002/meta39. “Embodied Intelligence in Plants”,作者:Barbara Mazzolai, Emanuela Del Dottore, Francesca Tramacere, Alessio Mondini and Laura Margheri;https://www.researchgate.net/publication/364570349_Embodied_Intelligence_in_Plants40. “From bioinspired to biological robots, and back again”,作者:Josh Bongard;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/01200441. “Bio-Inspired Robots Imitating Human Organs with Embodied Intelligence Behaviour”,作者:Ryman Hashem, Weiliang Xu and Fumiya Iida;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/01200742. “Leveraging Embodied Intelligence for Dexterous Robotic Manipulators Through Iterative Co-design”,作者:Kai Junge and Josie Hughes,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012009/meta43. “Morphological Computation and Control Complexity”,作者:Thomas George Thuruthel, Fumiya Iida,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012011/pdf44. “Mechanical Sensing in Embodied Agents”,作者:Matteo Lo Preti, Thomas George Thuruthel, Kieran Gilday,Lucia Beccai1, Fumiya Iida;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/01201345. “Robot swarms as embodied extensions of humans”,作者:Jonas D Rockbach, Maren Bennewitz;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012015/pdf46. “Embodiment in Dialogue: Daily Dialogue Android Based on Multimodal Information”,作者:Takahisa Uchida, Takashi Minato and Hiroshi Ishiguro,https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/01201647. “Benefits and Challenges of Morphological Adaptation in Real-world Robots”,作者:Tønnes F. Nygaard and Kyrre Glette;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/01201748. “Taking Shape: A Perspective on the Future of Embodied Cognition and a new Generation of Evolutionary Robotics”,作者:David Howard, Jack Collins and Nicole Robinson;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/01201849. “Meta-brain Models: biologically-inspired cognitive agents”,作者:B Alicea and J Parent;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/01201950. “Embodiment and metaphorising in the learning of mathematics”,作者:Jorge Soto-Andrade, Daniela Díaz-Rojas, Amaranta Valdés-Zorrilla;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012021/pdf51. “What Could Models of Superorganismal Cognition Offer to Embodied AI?”,作者:Edmund R. Hunt;https://iopscience.iop.org/article/10.1088/1757-899X/1261/1/012023相关问答
常州离南京有多远‘
[回答]高速方案:222111?iknowflg=1&newmap=1&l=9&t=B_NORMAL_MAP&c=13290816.08,3733155.57&s=n...