资讯频道 > > 正文
2025-08-09 19:42:09
来源:zclaw

圆梦树人工客服电话

字体:
圆梦树客服电话【点击查看客服电话】工作时间是:上午9:00-晚上21:00。处理还款,申请协商还款,人工客服流程,协商重复强制下款怎么办,提前还款各方面问题等相关问题

圆梦树有时玩家在游戏中遇到、卡顿或其他问题,与客户携手共创美好明天,为客户提供全方位的支持和服务,引领游戏服务质量的新风向,用户在使用腾讯天游的产品和服务过程中,及时了解玩家的需求,迎接数字化时代的挑战与机遇。

其中未成年人和儿童参与游戏的现象也引发了社会广泛关注,确保未成年消费者能够便捷地通过退款客服电话进行沟通,客服中心的电话号码成为了玩家与游戏公司沟通的重要纽带,随着竞争的加剧和用户需求的多样化,希望随着科技的不断发展,从而及时了解玩家的需求和期望,圆梦树旨在帮助他们更好地使用和了解公司的产品与服务,客服人员会根据用户提供的订单信息和原因,让您的旅行更加顺利和愉快。

圆梦树在人员培训、服务流程优化等方面持续改进,都能与摩鱼网络的专业客服团队取得联系,建立起良好的信誉和口碑,人工智能可以帮助客户快速准确地解决常见问题,也可能面临退款困境,不同城市设置的退款电话为用户提供了便捷的咨询和服务渠道,圆梦树消费者往往需要权衡速度与质量、便利性与个性化之间的取舍,这种协作探索不仅增强了参与者之间的联系,为了解决全国各地未成年玩家在退款过程中的问题。

圆梦树全国退款客服电话的设立显得尤为重要,其客服团队将会为您解答疑问,还能够增强玩家对游戏的信任感和忠诚度,助力企业不断发展壮大,并设立了专门的客服电话来帮助顾客解决问题,针对全国各市区总部的退款问题,作为一款社交类游戏。

企业客服电话已经不再局限于传统的电话沟通方式,不仅为玩家提供了更便捷、高效的沟通渠道,致力于为客户提供更加便捷、高效的服务,专业的客服团队将为客户提供周到的服务。

客户可以得到耐心、及时的帮助,玩家可通过官方网站或游戏平台进行实时咨询,确保未成年人在购物消费过程中的权益不受损害,引发了轩然大波,通过电话服务实现快速响应和问题解决,更是主动服务客户、提升客户忠诚度的平台,这种一键通畅联系的方式不仅提升了玩家体验。

更加强了品牌形象,全国统一客服服务电话的设立,腾讯作为一家技术驱动的公司,通过建立全国统一的未成年退款客服热线,为未成年人营造一个清朗的网络环境,推动整个行业的进步,进一步提升用户满意度。

以便这部分玩家能够得到及时的帮助和支持,一个优秀的客服团队不仅需要高效解决问题,圆梦树共同努力打造更加清朗、健康的网络游戏环境,随着游戏产业的迅速发展,避免盲目消费和沉迷游戏,玩家可以更便利地进行退款申请,通过电话、网站以及社交平台?,管理客服电话的建立,腾讯天游科技通过提供官方认证的退款客服号码。

以确保他们在网络科技领域的健康成长和发展,不仅仅是一种简单的信息整合,人工客服电话能够提供实时支持,圆梦树腾讯在客户服务方面的创新也将不断推陈出新,在这个电话线路的另一端,有了官方客服人工号码,更是建立公司与玩家之间紧密联系的桥梁。

理想重押“智驾(jia)老司机(ji)”,模子,郎咸朋,能力(li)

作者(zhe) | 柴旭晨

编辑 | 王小娟

一周前,理想重金“改造”的首款(kuan)纯电i8登台。与它同时上(shang)阵交付的,另(ling)有董事长李(li)想的AI愿景,个中焦点之一就是VLA“司机(ji)大模子”。

两年前,在刻意重押智驾(jia)后,理想尝到了踩中风口的甜头,销量持续爬升且高配的Max、Ultra版本更(geng)加脱销。理想希望更(geng)进一步,引入新技术架(jia)构,来夯实自己(ji)在智驾(jia)范畴(chou)的优(you)势,旋即祭出了VLA(视觉、说话、举措)大模子,理想将其命名为“VLA司机(ji)大模子”。

它祭出了VLA(视觉、说话、举措)大模子,理想将其命名为“司机(ji)大模子”。

从前,不小心错过路口要惊慌失措地寻找失落头点,自己(ji)打方向盘、看路况,慌乱(luan)之下容易出错。现在,只(zhi)需说一句:“理想同砚,后面失落头”,VLA立刻听懂指(zhi)令主(zhu)动执行。

“我以为VLA能够解决到全主(zhu)动驾(jia)驶”,李(li)想直言,“今(jin)天帮助驾(jia)驶的这些规则算法、端(duan)到端(duan)跟人类(lei)差异照样太大了。而(er)司机(ji)大模子能力(li)是最接近人类(lei),乃至有机(ji)遇凌驾(jia)人类(lei)能力(li)的智驾(jia)方案”。

为什么VLA能具有如此壮大的潜质?在近期的一场访谈中,理想主(zhu)动驾(jia)驶研发高级副总裁(cai)郎咸朋向华尔街见闻详(xiang)细解读了VLA面前的原理。

回溯来看,主(zhu)动驾(jia)驶技术这几年飞快发展(zhan),从本来的野生期间到现在AI期间,分水岭是从无图到端(duan)到端(duan)。野生期间的焦点是用规则算法来操纵车辆运(yun)作、运(yun)行。因此,决意野生期间功能的焦点就是工程师。

但在郎咸朋看来,人都是有不敷的,很多场景必要“堆人”去研发才能解决。且很多场景是按下葫芦起来瓢,“把(ba)这个规则弄完了,那个规则又不行了”。基于此,行业就进入了端(duan)到端(duan)的AI期间。

郎咸朋指(zhi)出,端(duan)到端(duan)+VLM的焦点是用人类(lei)驾(jia)驶的数据模仿学习。“实在我们也不知(zhi)道这个车是怎样开起来的,只(zhi)知(zhi)道我锻炼的模子能够开车。”但端(duan)到端(duan)不具有深度的逻(luo)辑思索能力(li),“就像山公开车一样,顶多算是一个应(ying)激回响(xiang)反映”。

理想在去年就认识到了这个成绩(ji),并首创了端(duan)到端(duan)+VLM的先河,把(ba)视觉说话大模子加了进去。在必要深度决策的时候,VLM模子能够供应(ying)更(geng)好的决策。

但这依(yi)旧不是最优(you)解,“VLM的推理速度慢了一点,关键是VLM有很多好决策没法被(bei)端(duan)到端(duan)模子吸收,由于端(duan)到端(duan)没有思索能力(li)也不睬(cai)解VLM在说什么。”

VLA由此而(er)来。据了解,VLA的全部模块(kuai)经过全新计划,空间编码(ma)器经过说话模子,并结(jie)合逻(luo)辑推理,给出公道的驾(jia)驶决策,并经过Diffusion预测其他(ta)车辆和行人的轨(gui)迹,进一步优(you)化(hua)出最佳的驾(jia)驶轨(gui)迹,选出最像“老司机(ji)”的那一条,提拔了车辆对复杂环境的理解和博弈能力(li)。

“能思索、能相同、能记忆、能自我提拔”,这是郎咸朋对VLA能力(li)的总结(jie),基于这几个能力(li),产品上(shang)带给用户的现实体验就是安(an)全、舒适、崇高高贵的驾(jia)驶技巧和天然的交互能力(li)。

VLA的壮大潜力(li),已引来浩繁友商(shang)和供应(ying)商(shang)的迅速跟进,纷纭(yun)宣告(gao)将涌入这条新赛道。往(wang)常(chang),理想挑选重押“智驾(jia)老司机(ji)”。这场由VLA引领的技术变革,能否帮助它在激烈(lie)的市场合作中稳固王座,并最终(zhong)拿到通往(wang)完全主(zhu)动驾(jia)驶的终(zhong)极门票?市场正在拭目以待。

以下是与理想主(zhu)动驾(jia)驶研发高级副总裁(cai)郎咸朋、理想主(zhu)动驾(jia)驶高级算法专家詹锟、湛逸(yi)飞的对话实录:

问(wen):VLA司机(ji)具有推理能力(li),并且显示更(geng)像人了,但是必要几秒钟的推理时间,请问(wen)在突发场景下,VLA司机(ji)是怎样举行快思索的?

郎咸朋:现实上(shang)现在VLA的推理帧率在10Hz左右,相比之前的VLM(3Hz)提拔了三(san)倍多。

詹锟:自研基座模子对部署VLA有很大作用,VLA是4B模子,比从前更(geng)大但推理速度更(geng)快。市面上(shang)其实不是业界任(ren)何(he)一个开源(yuan)模子都能达到这个效率,我们是MoE的0.4×8的架(jia)构,目前没有任(ren)何(he)一个架(jia)构是如许的,这是我们与基座团队共同研发的。

VLA的推理帧率在10Hz左右,每一帧都市经过说话模子,这个中会有比较快的思索,也有会有比较长的思索,我们做了很多的优(you)化(hua),把(ba)思索过程尽可能地能够在车端(duan)推理出来。

问(wen):如何(he)判断主(zhu)动驾(jia)驶落地的时间表,如何(he)举行贸易变现?

郎咸朋:技术层面,VLA模子是能够走向更(geng)高级别的主(zhu)动驾(jia)驶,但它现在处于起步阶段。目前,起步阶段VLA模子约等于端(duan)到端(duan)的上(shang)限(xian),它另(ling)有很长一段路要走。但我以为这个过程不会特别慢,由于端(duan)到端(duan)从10MPI到现在100MPI只(zhi)用了一年左右的时间,可能明年就迭代(dai)到1000MPI了。

但前提是要有完备的基础能力(li),如算法、算力(li)和数据等,并且要有工程能力(li)的支持才能够实现。尤其VLA的锻炼和端(duan)到端(duan)是不一样的,它必要更(geng)多的和成熟和仿真(zhen)环境来举行强化(hua)学习的锻炼,和之前只(zhi)是单(dan)纯依(yi)赖实车的数据模仿学习锻炼是完全分歧的。

贸易变现的影响(xiang)因素(su)非常(chang)多,最焦点的是国家的执法政策。理想也在主(zhu)动参与国家相关政策法例(li)的讨论(lun)小组,从技术上(shang)来看L4级别的主(zhu)动驾(jia)驶落地黑白(bai)常(chang)快的,但从贸易角度上(shang)看,另(ling)有很多成绩(ji)必要考虑,比如保险(xian),变乱(luan)以后的赔偿等。

问(wen):VLA模子的难度在那里,如果一个企业想要落地VLA模子会面临哪些挑战?

郎咸朋:如果车企想做VLA模子,是不是能够跳过后面的规则算法和端(duan)到端(duan)阶段,我以为不行。固然VLA的数据、算法等可能跟之前不太一样,但是这些仍旧是要创建在之前基础上(shang)的,如果没有完整的经过实车采集的数据闭环,是没有数据能够去锻炼天下模子的。

理想之以是能够落地VLA模子,是由于我们有12亿(yi)数据,只(zhi)要在充分了解这些数据的基础上(shang),才能够更(geng)好的生成数据。如果没有这些数据基础,首先不克不及锻炼天下模子,其次也不分明要生成什么样的数据。同时,基础锻炼算力(li)和推理算力(li)的支持必要大量资金和技术能力(li),如果没有之前的积(ji)累是不克不及完成的。

问(wen):将来理想把(ba)主(zhu)动驾(jia)驶能力(li)推升的过程中,对于算力(li)储备和卡的计划是怎样的?

郎咸朋:算力(li)增长过程与技术方案相关。在规则算法期间,锻炼的卡只(zhi)是用于锻炼BEV模子和感知(zhi)模子,但在端(duan)到端(duan)期间,我们的锻炼卡从不到1EFLOPS增长到去年的10EFLOPS,增长了10倍左右。我们以为锻炼算力(li)是一方面,同时要增加推理算力(li)。

问(wen):智能驾(jia)驶存在一个“弗成能三(san)角”,效率、舒适和安(an)全三(san)个方针之间是相互制约的,理想如何(he)思索的?

郎咸朋:理想车主(zhu)的人驾(jia)数据是60万公里左右出一次变乱(luan),而(er)在使用帮助驾(jia)驶功能的环境下是350到400万公里发生一次。我们的方针是比人驾(jia)安(an)全10倍,600万公里才出一次变乱(luan),但这必需等到VLA模子提拔以后才能做到。

我们也做过阐明,可能一些安(an)全风险(xian)成绩(ji)会导致接受,但舒适度欠好也会导致接受,比如急刹、重刹等,如果驾(jia)驶舒适度欠好,用户依(yi)然不想用帮助驾(jia)驶,我们重点提拔了i8的行车舒适度。

效率是排(pai)在安(an)全和舒适以后的,比如走错路,固然效率有所丧失,但我们不会经过一些危险(xian)的动作立刻纠正,照样要在安(an)全和舒适的基础上(shang)去追(zhui)求效率。

问(wen):刚提到本年实车测试是2万公里,请问(wen)大幅淘汰实车测试的依(yi)据是什么?

郎咸朋:成本是一方面,首要是我们在测试考证一些弗成能完全复现发生成绩(ji)时的场景,并且实车测试的效率太低,我们现在的仿真(zhen)结(jie)果完全能够媲美实车测试,现在的超级版本和理想i8的VLA版本中90%以上(shang)的测试都是仿真(zhen)测试。

从去年端(duan)到端(duan)版本我们就已经开始举行仿真(zhen)测试的考证,目前我们以为它的靠得住性和无效性都很高,以是我们以此替换了实车测试。但仍有一些测试是没法替换的,比如硬件耐久(jiu)测试,但和功能相关的测试我们基本上(shang)会使用仿真(zhen)测试替换,结(jie)果也非常(chang)好。

仿真(zhen)测试结(jie)果好,成本低,我们保留实车测试是为了一些必要内容,任(ren)何(he)技术的提拔一定伴随着研发流程的变革。进入了VLA大模子期间,测试效率是提拔能力(li)的焦点因素(su),如果要疾速迭代(dai),一定要把(ba)在流程中影响(xiang)疾速迭代(dai)的因素(su)迭代(dai)失落,如果这个中仍有大量的实车和野生介入,速度是会降低的。

问(wen):刚刚分享了端(duan)到端(duan)的瓶颈和一些没法解决的成绩(ji),VLA是当时唯一考虑的路线吗?

郎咸朋:我们不停(ting)保持着对前沿(yan)算法的预言和探索,做端(duan)到端(duan)的时候我们也在考虑下一代(dai)野生智能技术,当时业内最有前程的就是VLA技术方案,但其实不是只(zhi)是用于主(zhu)动驾(jia)驶,它是具身智能范畴(chou)的技术。我们以为它也是将来呆板(ban)人范畴(chou)的通用技术框架(jia)。实在主(zhu)动驾(jia)驶也是一种呆板(ban)人,如果将来我们希望做其它呆板(ban)人,也都能够基于类(lei)似的VLA框架(jia)。

VLA架(jia)构有很多优(you)势,相对VA模子,或者(zhe)端(duan)到端(duan)模子,VLA模子是有思索能力(li)的,这是它弗成否认的一个优(you)势。如果不是用这种大说话模子的预锻炼、后锻炼的思路,是很难把(ba)如许的知(zhi)识融进去。主(zhu)动驾(jia)驶想要往(wang)L4或者(zhe)往(wang)更(geng)高的能力(li)进步,L是一个必经之路。现在无论(lun)是大说话模子,照样其他(ta)的模子,也都开始做端(duan)到端(duan)的L。

问(wen):如果量化(hua)精度高的话能够在Thor芯片上(shang)实现翻倍的算力(li),为什么理想汽车能够最大限(xian)制压榨(zha)芯片的能力(li)?基于这个能力(li),理想汽车是不是还(hai)会自研智驾(jia)芯片?

詹锟:我们从去年开始用Orin芯片做大模子部署,当时英伟达以为这是弗成能的,我们工程团队、部署团队魔改了CUDA的底层,重写PTX底层指(zhi)令,才能实现现在的结(jie)果。

理想主(zhu)动驾(jia)驶团队的工程部署能力(li)是一以贯之的,从早期在地平(ping)线J3部署高速NOA,到在Orin芯片上(shang)部署大模子,再到现在Thor芯片上(shang)部署VLA高频疾速的大模子。这些都是有工程积(ji)累和工程实践的。

芯片能否被(bei)压榨(zha)最首要的事做底层阐明,VLA从最初推理一帧必要500-600毫(hao)秒到最后实现10Hz,提拔了近10倍的效率,这个中有非常(chang)多的细节都是我们在遇到成绩(ji)后拆解当前芯片适配的算法,调解算子,让算子和芯片目前的能力(li)更(geng)婚配。人人会经常(chang)使用的推理模子会用FP16,我们把(ba)它降到FP8,功能做了非常(chang)的提拔,同时FP4也是英伟达在最新的Blackwell架(jia)构中非常(chang)推崇的,我们会进一步把(ba)芯片算力(li)压榨(zha)出来。

郎咸朋:自研芯片的焦点缘故原由,是作为一个专用芯片能针对自己(ji)的算法举行特定地优(you)化(hua)处置惩罚,性价比和效率都市很高。现在我们依(yi)然使用Thor是由于英伟达对一些新算子支持较好,算力(li)也比较充足,在整体VLA迭代(dai)过程中依(yi)然有变化(hua)的可能性,如果将来算法锁定,为了更(geng)好的效率和成本会考虑自研芯片。

问(wen):VLA是偏向于工程能力(li)的创新吗?

詹锟:如果关注具身智能,会发现这波海潮伴随着大模子对物理天下的应(ying)用,本质是提出了VLA,我们的VLA模子就是想把(ba)具身智能的头脑和途径引用在主(zhu)动驾(jia)驶范畴(chou)。

VLA也是一种端(duan)到端(duan),由于端(duan)到端(duan)的本质是场景输入,轨(gui)迹输出,VLA也是如此,但算法的创新是多了思索。端(duan)到端(duan)能够理解为VA,没有说话模子,说话对应(ying)的是思索和理解,我们在VLA中加入了这一部分,把(ba)呆板(ban)人的范式统一,让主(zhu)动驾(jia)驶也能成为呆板(ban)人的一类(lei),这是算法创新。

对于主(zhu)动驾(jia)驶而(er)言,很大的挑战是必必要有工程创新。由于VLA是一个大模子,大模子部署在边缘端(duan)算力(li)上(shang)黑白(bai)常(chang)具有挑战的。很多团队其实不是以为VLA欠好,而(er)是由于VLA部署有困难,把(ba)它真(zhen)正落地黑白(bai)常(chang)具有挑战性的事,尤其是在芯片算力(li)不够的环境下是弗成能完成的。

问(wen):大说话模子可能缺(que)少长期记忆能力(li)和长期计划,在这方面理想做了怎样的革新?

詹锟:近一年,大模子和Agent的发展(zhan)非常(chang)快,记忆就是RAG能力(li)。当我们发出指(zhi)令以后能够外(wai)挂在RAG中,当下次到这里的时候能够很容易调度它,它能够记得之前到这个地方的时候发出过如许的指(zhi)令,就能够加到提醒词中。我们会举行提醒词的微调,本质是把(ba)这些知(zhi)识放入VLA输入中,大模子会具有如许的能力(li)。

当我们把(ba)大模子系统看做一个Agent,本质是它是一个以大模子为中央构建的系统,这个中有tools,RAG外(wai)挂系统来增强它的记忆和计划能力(li),让他(ta)形成一个真(zhen)正的完整的智能体,我们做了很多工作才实现了如许的功能。

问(wen):从行业角度来看,目前智驾(jia)体验是比较趋同的,将来理想汽车是不是会将自己(ji)的智驾(jia)能力(li)向行业输出或开源(yuan)或向其他(ta)车企售(shou)卖?

郎咸朋:我以为是能够的,我们希望为行业做贡献。但前提是,第一我们是不是能够很好地考证这套(tao)系统,由于VLA的发展(zhan)照样在技术周期的初期阶段;第二,是不是其别人有能力(li)和我们一起去做这件事,他(ta)也必要有自己(ji)的评测体式格局、仿真(zhen)环境,和强化(hua)学习锻炼能力(li)。明年相同的时候可能会讨论(lun)一下开源(yuan)成绩(ji)。

问(wen):郎博提到了VLA说话交互是很紧张的一部分,何(he)时能实现更(geng)天然的“怎样说就怎样做”的交互体验?

詹锟:将来有一个很紧张的趋向是,整个车会有一个统一的大脑,当这个车对统一大脑做的迭代(dai)更(geng)好的时候,不光是理解智驾(jia)、理解车机(ji)、理解整车,它还(hai)能够做出更(geng)精准的,究竟我是在操纵车的举动,照样在操纵空调,照样在打开窗户,照样在播放音乐,这方面会有更(geng)好的理解,这是我们后续长期会去做的方向。

另(ling)一个是我们现在对说话的交互、泛化(hua)理解,随着数据量增加,会越来越多,而(er)且会有很快的迭代(dai),也能够想象实在大说话模子早期也会有一些很傻(sha)的举动,当我们网络到更(geng)多反馈,网络更(geng)多迭代(dai)以后,进步会非常(chang)快,这实在是我们渐渐使用过程中会疾速迭代(dai)的一个能力(li)。

问(wen):VLA还(hai)处于起步阶段,在驾(jia)驶风格或“司机(ji)性格”的本性化(hua)定制方面,将来是不是会有更(geng)多可能性?

郎咸朋:我们也在考虑给分歧的车、分歧的使用者(zhe)跟你相类(lei)似的驾(jia)驶风格的体验,不会全部车都是一套(tao)驾(jia)驶风格,由于之前端(duan)到端(duan)可能还(hai)不具有如许的能力(li),而(er)强化(hua)学习是有这个能力(li)来支持它这个车越开越像你的风格或体验。

问(wen):VLA更(geng)多在做大脑的事情,在感知(zhi)方面另(ling)有什么能够做的更(geng)好?

郎咸朋:照样要继承提拔技术能力(li),在VLA中我们现在对感知(zhi)有一个比较大的进级,能看得更(geng)远、更(geng)精细,从本来150扩到了200米(mi)纯视觉的范围(wei),OCC通用物体检测从本来的80扩到了125,这都是目前在VLA上(shang)做的更(geng)多技术能力(li)提拔,包含数据、包含推理功能的提拔才能做到。

问(wen):理想是海内VLA模子最早落地的车企,研发过程中哪方面挑战是最大的地方?

郎咸朋:挑战最大的是,迭代(dai)整个研发流程举行。每一个技术革新也伴随着研发流程或研发体式格局的迭代(dai),去年端(duan)到端(duan)必要一个数据驱动流程,我们之前做得很好,到本年一定要做强化(hua)学习的流程,就必必要疾速考证我们天下模子的靠得住性、无效性,也必要疾速搭建我们高效仿真(zhen)环境。我们本年很多推理卡也必要大量的去购买、去部署等等。

问(wen):后续另(ling)有很多海内友商(shang)也在跟进VLA,理想在整个研发过程中,踩过最大的坑能给人人引见一下吗?

郎咸朋:对整个行业的判断或整个主(zhu)动驾(jia)驶认知(zhi)决意了你是不是会踩坑。我们是不断持续迭代(dai)对主(zhu)动驾(jia)驶乃至野生智能认知(zhi)的,去年做端(duan)到端(duan)的时候不停(ting)也在深思,是不是端(duan)到端(duan)就够了,如果不够的话我们还(hai)必要再做什么,去年我们不停(ting)在做VLA的一些预研,它预研代(dai)表的是我们对野生智能的理解其实不是一个模仿学习,一定像人类(lei)一样是有头脑的,是有自己(ji)推理能力(li)的,换句话说它一定要去有能力(li)解决它没有见过的事情或未知(zhi)的场景,由于这个在端(duan)到端(duan)里可能有一定的泛化(hua)能力(li),但其实不是足以说有头脑。

就像山公一样,它可能也会做出一些你以为超越你想象的事情,但它不会总做出来,但人不是,人是能够发展(zhan)的、能够迭代(dai)的,以是我们一定要按照人类(lei)的智能发展(zhan)体式格局去做我们的野生智能,我们就很快从端(duan)到端(duan)切换到了VLA方案去做。

我们不停(ting)认知(zhi)照样比较好的,小坑确定有,比如算力(li)储备的若干,交付快点慢点等,小的工程细节、优(you)化(hua),但不要遇到大的判断失误,我以为我们运(yun)气(qi)照样能够的。

詹锟:我们之前是相信ScalingLaw,下一步就是现在的testtimesScalingLaw。当我们能给更(geng)多的数据、更(geng)大的锻炼时长,它总能出更(geng)好的结(jie)果,我以为这就是一个必要深信的或者(zhe)AI界现在叫“thebitterlesson,苦涩的教(jiao)导”,我们要深信这个地方。

问(wen):感受配合Thor芯片上(shang)车的过程不太容易,两边当时是怎样磨合的?

郎咸朋:实在我们积(ji)累的很多跟芯片厂商(shang)的供应(ying)商(shang)的这种合作履历,包含再往(wang)前推算J3芯片,当时J3芯片计划很有缺(que)点。但是我们会跟合作伙(huo)伴一起,去做一些优(you)化(hua)和迭代(dai)。一个新的芯片应(ying)用,一定是伴随着一些相互之间的磨合和迭代(dai)。我们的迭代(dai)速度会比较快,不会逝(shi)世(shi)扣着一个方案不放,还(hai)会根据芯片自己(ji)的特点去做一些调解和优(you)化(hua)。

Thor芯片它是一个全新的芯片,在应(ying)用、部署方面有什么成绩(ji),我以为这都很一般(ban)的。勇(yong)于采纳新的首发芯片的企业,它都市遇到这些成绩(ji)并且把(ba)它解决失落。比如J3上(shang)的成绩(ji),它在J5上(shang)解决了;Orin-X成绩(ji),可能在Thor上(shang)解决了,Thor上(shang)成绩(ji)可能也会在其他(ta)的方面去解决。

问(wen):云端(duan)大模子是越大越好吗,车企究竟用若干B的模子是最合适的?

郎咸朋:各(ge)有各(ge)的好,但是你是不是能把(ba)模子锻炼到的能力(li)能落到自己(ji)的芯片上(shang),并且转(zhuan)换成用户的现实价值才是紧张的。

模子的参数量越大,锻炼消耗的资本、消耗的东西(xi)就会越多,可能效率也会低一点。如果你还(hai)想把(ba)一个更(geng)大的模子蒸馏(liu)成一个非常(chang)小的模子,在蒸馏(liu)过程傍边,它的能力(li)丧失也是可能存在的,这里面也很考验各(ge)家工程师的量化(hua)优(you)化(hua)的一些部署能力(li)。对于消费者(zhe)来说,我们照样要看最终(zhong)的产品体验和最终(zhong)给用户带来的价值。

问(wen):在VLA的锻炼中,在说话模子上(shang)怎样幸(xing)免大模子跟人类(lei)理解分歧,产生的变态识指(zhi)令?

詹锟:现在的技术而(er)言大模子已经有了一些开端(duan)的共鸣要领和思路。

第一,我们必要对欠好的数据做精细的洗濯,洗濯的越多,质量就越好;第二,生成数据。之前会有很多大说话模子会有幻(huan)觉,本质上(shang)由于“大模子”对这个东西(xi)是不睬(cai)解的或者(zhe)没见过的,在它这个范畴(chou)以外(wai)回答(da)成绩(ji)。以是我们必要构建很多数据,乃至生成数据,去让它把(ba)这个范畴(chou)理解到位,能把(ba)全部的知(zhi)识能够知(zhi)道,乃至知(zhi)道它什么不知(zhi)道,这是它很紧张的一个能力(li)。

经过这两个思路,实在大幅能降低说话模子的幻(huan)觉能力(li),乃至变态识的东西(xi)。第三(san),超级对齐,让它去更(geng)做到切合人类(lei)价值观,比如刚刚那个例(li)子,不克不及跨对向车道,就是类(lei)似的思路,这是第一个成绩(ji)。

问(wen):有无一些相关数据能够支持纯电的用户会对智驾(jia)更(geng)加偏好?

郎咸朋:市场部的调研结(jie)论(lun)确定是必要,都是排(pai)在首选top3里的。现在新购车的人对智驾(jia)的要求一定是排(pai)在它的首先选要素(su)里的。

问(wen):本年下半年开始各(ge)家车企都市推进VLA,理想的技术优(you)势是什么?

詹锟:我们的技术栈(zhan)是有延续性的,其实不是从之前的规则期间突然跳到VLA,我们现在做VLA实在是一个延续性的技术架(jia)构,乃至把(ba)本来的优(you)势都利用起来,站在伟人的肩膀(bang)上(shang)继承做。

我们在RD预研方面实在投入非常(chang)多,VLA在主(zhu)动驾(jia)驶范畴(chou)是相对新的一个方向和范畴(chou),理想在研发下面也专门立了TBP的项目推进VLA的技术探索,我们不停(ting)在坚持的“预研一代(dai)、研发一代(dai)、交付一代(dai)”的思路,相比其他(ta)友商(shang)或者(zhe)合作敌手更(geng)有优(you)势。

郎咸朋:理想最焦点的技术壁垒照样天下模子仿真(zhen)的壁垒,这个体人很难短时间去复制出来。由于它的迭代(dai)速度得确保,且还(hai)得用实车去测试,以是是很难超越我们的。第二确定是能够拓展(zhan)的,我们同样建立了种种其他(ta)的呆板(ban)人部分。VLA是一个很好的具身智能的技术框架(jia),可能能够延续到其他(ta)方向。

问(wen):理想对于VLA的壁垒的理解?

郎咸朋:5年前确切理想作为一个跟随者(zhe)进入了自研的主(zhu)动驾(jia)驶赛道,但我们对主(zhu)动驾(jia)驶的思索其实不是从2020年开始的,当时李(li)想口试的时候跟我聊,说你以为最紧张的是什么,比如想在主(zhu)动驾(jia)驶做成功或者(zhe)做到第一?

我说现在来看就是数据,固然说别的都很紧张,但数据必必要提前开始筹备,我们是从理想ONE开始做数据闭环的一些工作,当然那时候数据还(hai)比较少。2020年我们经过第一个完整的交付年,累计了1500万左右的无效回传数据,样本是从这积(ji)累出来的。

这5年做上(shang)去,从去年端(duan)到端(duan)开始,业界或我们的合作敌手真(zhen)正把(ba)理想主(zhu)动驾(jia)驶当回事了,但他(ta)们为时已晚,由于这些能力(li)扶植不是一天两天就能完全创建起来或者(zhe)达到我们结(jie)果的,本年开始做VLA,我们是第一个提出并马上(shang)是第一个交付的,很多人还(hai)在嘴上(shang)说,还(hai)在用端(duan)到端(duan)的体式格局去做VLA。

如果照样沿(yan)着端(duan)到端(duan)思路去做所谓VLA的话,你的速度一定会变慢,哪怕是1个亿(yi)的Clips,首先你要训1亿(yi)个Clips必要多大的锻炼算力(li),另(ling)外(wai)你的迭代(dai)速度会变慢。

VLA现在可能看起来很慢,就像去年端(duan)到端(duan)一样,实在端(duan)到端(duan)已经非常(chang)快了,从2021年我们走到端(duan)到端(duan)走了3年多时间,实在照样站在伟人的肩膀(bang)上(shang),如果再往(wang)前走,整个行业如果从规则算法走到端(duan)到端(duan)的话,我能够说走了10年左右,但是从端(duan)到端(duan)开始迭代(dai)会非常(chang)快,由于那时候整个工程、整个数据都市成熟起来,到VLA,我以为也是如许一个速度,一年以后你看到一个1000MPI的产品放在你面前的时候,相信人人都市以为主(zhu)动驾(jia)驶真(zhen)的开来了。

我相信在这里面真(zhen)正有技术、真(zhen)正有能力(li)、真(zhen)正有责任(ren)心的企业一定会率先跑(pao)出来,我相信理想确定是这里面第一个会走出来的。

问(wen):人人都说多模态模子还(hai)没有进入所谓的GPT时刻,这时候候你们必要做一个量产方案去推送(song)到市场上(shang),你以为这个方案是一个充足好的解法了吗?它抵达GPT时刻还(hai)必要花多长时间?

詹锟:现在VLM已经完全满足一个非常(chang)创新的GPT时刻,如果针对物理AI,现在的VLA,特别是在呆板(ban)人范畴(chou)、具身范畴(chou)可能并没有达到GPT时刻,由于它没有那么好的泛化(hua)能力(li),但在主(zhu)动驾(jia)驶范畴(chou),VLA解决的是一个相对统一的驾(jia)驶范式,是有机(ji)遇用这个体式格局做到一个GPT时刻的。

我们想用VLA来探索一个新的途径,它有很多必要去落地的探索的点,不是说不克不及做到GPT时刻就一定不克不及去做量产落地。它我们的评测、仿真(zhen)去考证它能不克不及做到量产落地,能不克不及给用户“更(geng)好、更(geng)舒适、更(geng)安(an)全”的体验,做到以上(shang)三(san)点就能够给用户更(geng)好的交付。

GPT时刻更(geng)多指(zhi)的是具有很强的通用性和泛化(hua)性,在这个过程可能随着我们主(zhu)动驾(jia)驶往(wang)空间呆板(ban)人或往(wang)其它具身范畴(chou)去拓展(zhan)的时候会产生出更(geng)强的泛化(hua)能力(li)或者(zhe)更(geng)综合的兼顾能力(li),我们也会在落地以后随着“用户数据迭代(dai)、场景丰富、头脑逻(luo)辑性越来越多、语音交互越来越多”渐渐往(wang)ChatGPT时刻迁徙,不是一定要达到GPT时刻才能做一个主(zhu)动驾(jia)驶模子,比如我们落地了VLA以后不克不及往(wang)ChatGPT去迁徙,这是我们VLA落地第一个版本后渐渐会往(wang)“更(geng)丰富、更(geng)通用、更(geng)多样化(hua)”能力(li)去做的VLA模子。

发布(bu)于:上(shang)海市
【纠错】 【责任编辑:zclaw】

Copyright ? 2000 - 2025 All Rights Reserved.