AI大模型发展至今,已经有很多信息成为大家的共识。但在一些细节和前沿内容上,还有一些大家不理解的知识。这篇文章,我们看看作者分享的这些经验。
先把这次的“非共识认知点”全部列出来(其实不止10个……)
2、没有know-how支撑的尝试是赌博,有“非共识认知”支撑的迭代才是MVP。
3、AI公司的妄念:招个很牛的AI产品经理来想idea。
4、跨语言,可能是大模型最Native、现阶段最容易被感知和落地、但又最容易被忽视的能力。
5、长文本,可能是又一个“看起来不起眼、但增加数量就跃迁、涌现”了的东西。
6、当自己本身都搞不定业务的时候(从 0 到 1),不要指望 AI。
7、技术维度+产品维度+商业维度,不是在做加法,而是在做“归一化”。
8、危险:AI导致的风险,可能不是潮水,而是飓风。
9、一旦我们学会“剥离人性弱点的弊端,仅使用其工具属性价值”,负面影响,是会让人,更加自私。
10、机会:如何解脱?要么向上成长为最牛的人,要么躺平过生活。
11、当ChatGPT被研发出来之前,我们问AI的空气动力学是什么?当ChatGPT被研发出来之后,我们需要问,AI的“制动器”是什么?
12、【重要】AI时代超级个体的10倍、100倍、1000倍成长路径,到底在哪里。
另外,还有一些认知点,是之前《深度 | 关于AIGC商业化的13个非共识认知(8000字长文)》中提过的,这次口述,大家体会将更深,比如——
1、AIGC的差异化核心指标,不是节省了多少时间/人力(效率属性),而是提高了多少“转化率”(利润属性)。
2、现阶段AI落地的低枝果实,可能反而是情感AI。
3、对于转化率的提升,虚拟人很可能会有“巨大”的增量空间。
4、关于Agent:目前主流的“单体智能”思路有隐患,可能的突破口是“多体智能”——类似复杂系统/鸟群,单个智能体可能很简单(不一定要超过单个人类),但整体有非凡的智慧(AI Agent 团队 >人类团队)。
5、“场景-用户-需求”之外,需要增加一个关键词,“关系”——定义了关系,就定义了约束条件和需求属性。
6、使用AI时,把AI当成人;设计AI时,把人当成AI。
7、未来AI企业,方向定位将不是按照To C/To B来划分,而是按照To 人/To AI 来划分。
……
注:本文是我去年参加某次直播访谈活动的文字版,下面是全文,开场过程略。
主持人刀姐:刚提到,你之前完整经历了AI 1.0时代,那现在AI 2.0阶段,带来了哪些机遇呢?你怎么看?
黄钊hanniman:我想先跳出来说一个关键词,“周期”。
认知这是“多少年一遇”的机会,其实会决定我们的心态和做事方式。咱们从小往大说——
1)从产品视角看来说,类比十年前的移动互联网,是十年一遇的机会。会有很多应用层产品创新的机会出来。
所以很多人想的是,如何把自己的业务/产品形态,尽快的和大模型/AIGC结合。所以会很卷、很急的去发布产品。
2)从行业视角看,至少是类比互联网的,25年一遇的机会。
这意味着什么呢?这意味着,对于很多40多岁的第一波互联网从业者,这可能是他们这辈子最后一个、大周期性的成功(暴富)机会。
最有名的那个理论,“人生发财靠康波”,人的一生,会有三次大机会。
这也是为什么很多人把大模型,当作这辈子的“最后一仗”。
3)从人类社会视角看,这是几百年一遇的机会。
比如傅盛最近说,人类历史上唯一可以与AI相比的是蒸汽机,把热能变成动能,今天的AI,是把电能变成智能。
包括马化腾说,AI是几百年不遇的的机遇。
采取这种认知的人或者公司,会有什么心态呢?不急!慢慢来!
4)当然,从赚快钱视角看,可能是1、2年一遇的机会,那就得赶紧去做。
5)所以,整体我想表达的是,AI 2.0有那些机遇,不同的人,看到的世界是不一样的。我们每个人,选择适合自己认知、性格和擅长模式的机遇方向就好了,千万不要错配。
1年一遇的机会,是赚钱;10年一遇,是产品;25年一遇,是创业;百年一遇,是事业。
主持人刀姐:ok,刚咱们说的是底层认知,那具体来说,对于AI产品方向、对于个人职场发展、对于未来的超级个体,分别有哪些具体的机会呢?
黄钊hanniman:好,这里面内容比较多,咱们一个一个说。
刀姐:好~
(方便起见,下面跳过对话形式,直接写干货——)
分短期和长期,里面再分别按照“什么可能不对、什么可能对(有机会)”来划分。
1)最大的坑,就是过于简单的认为“把XXX用LLM/CUI全部重新做一遍”
这种观点,不是说完全不对。但问题在于,最危险的认知,就是一半对、一般不对,这种最容易带沟里去。
类比移动互联网时代,大家想当然的认为,要把所有PC上的内容,都搬到手机上。
不能这么简单的来看。
具体做什么,都是what层面的东西,不重要——重要的,是背后的how和why。
或者更具体的来说,很多时候,不是技术不够,而是缺乏深度的“行业know-how”。
比如说,设计一个直播数字人,如果没有行业理解,很可能是一个端庄、颜值高、说话语气舒缓、手部有一些简单动作的产品,事实上直播完全不是这样的!你必须知道大家平均在直播间停留的时间有多长、在哪个时间段就应该说销售话术了。必须知道什么时候全身出镜/什么时候半身出镜必须知道哪个环节是容错率高的,哪个环节是容错率低的总之,要跟这个行业相匹配的方式做对应的串联……
否则就会出来一个傻傻的、大陆货的数字人主播。
我社群里有一位产品经理,之前在某家数字人相关公司工作过,而且是近距离的接触过老板,她就跟我说,确实他们不是很懂这个领域,很头痛的问题,不是技术或产品怎么实现,而是如何去打造一个IP。
跟这相关的,还有2个问题,我特别想分享下——
a)没有know-how支撑的尝试是赌博,有“非共识认知”支撑的迭代才是MVP
什么意思呢?一定不要说,虽然我(企业方)知道这个业务方向定位,暂时是不对的(比如过于简单的说“现有业务+LLM”),但明年可能会冒出新的对的方向/认知。——这是赌博。
应该是,今天就能够说出自己的非共识认知。——有就是有,没有就是没有。这里有一根金线,明眼人是看得到的。——基于这个非共识认知,再去做产品定位预设,再去做MVP验证预设,这样的迭代,才有意义。
而且需要知道,今年的这个判断,未来可以变(类比几乎所有大公司,后来真正做大的业务,都不是最初的起点方向了),但今年一定得有,并且是基于“非共识认知”的!
即,认知能力深度是本,业务方向判断是末。前者一定得有,后者可以变化,但后者一定是需要基于前者而推演出来的。
b)AI公司的妄念:招个很牛的AI产品经理来想idea
老板或部门负责人自己的想法陷入瓶颈,往往会希望招一个AI产品经理来想idea(创新/探索新方向),希望他突然某天想出来个特别好的点子。这个思路本身,是有极大偏颇的。
i,如果有绝对信息和视野优势的老板/部门负责人都想不出来,其他条件相同前提下,指望一个具体做事的AI产品经理来想,本身就有点强人所难。
ii,也许有的老板会认为,只是希望这个AI产品经理脑子灵光、点子多,能提供一些有价值的参考信息给自己;即使是这个定位,结果一般也不会太好,这是因为——
由于AI领域的特殊性,如果老板自己没有深度的AI产品认知水准,即使AI产品经理能够提出一些有价值的idea,老板(和其他人)也根本不知道如何认知评估这个idea是否靠谱、为什么、关键点在什么地方。
最终结果很可能是,即使运气好,碰巧选对了方向和需求定位,公司也愿意投入一定资源去实施,仍然大概率的会因为搞不清楚事情的关键点、最核心的指标是啥,而错过机会(浅尝辄止的把项目砍掉,直到1、2年后再后悔没有持续投入)
最大的风险就是所有人都不懂行业/场景,且自己也不是典型用户。
iii,更好的方式是,老板/部门负责人,自己先判断筛选出几个大方向(或细分方向),然后,去找这个方向内,有“资深行业背景”的产品经理,或本身就是该方向“典型目标用户”,来帮忙过滤需求!
why?这是因为,老板/部门负责人们,表面上需要的是一个好的点子(idea),其实真正需要补齐的,是“垂直领域内的需求认知”。
即,“某个需求点是真实存在还是伪需求”这个坑别傻趟了——直接让有资深行业背景的人来告诉团队。
至于具体用AI可以怎么做(what),其实是相对容易的。因为只要需求把握不偏差太多、目标导向明确、评估指标定义清晰,总会有效果和积累的,无非多少/快慢的区别而已。
结论:需要招“资深行业背景”或“典型目标用户”来过滤伪需求,而不是“脑子灵光、点子多”。
刚说的是第一个点,最大的坑,就是过于简单的认为“把XXX用LLM/CUI全部重新做一遍”,然后说第二个——
2)AIGC的差异化核心指标,不是节省了多少时间/人力(效率属性),而是提高了多少“转化率”(利润属性)。
首先声明,所谓“差异化核心指标”,意思不是说,没有降本增效这个维度的价值,而是说,降本增效类的指标,不是事情成败的关键,不是一个新品类能够立住的核心指标。
关于这点,有个经典的例子:从功能手机到智能手机,大家都认为品类已经变了。
i,作为通信工具,功能手机的核心功能是拨打电话、发短信,核心指标是接通率或稳定性
ii,而智能手机(iPhone)也有电话、短信等通信功能,但是其真正决定成败的差异化价值,其实是娱乐/社交/购物等等其他功能,重点指标也变成“占有用户时长”等等,而并不是打电话的通话质量等通信指标了!
而且,对比开源节流来说,人类天然更愿意为开源付费,而不一定是节流,特别是在中国,特别是小B和大C。
澳门一码一码100准确,最佳精选解释落实_尊享版6.896
AIGC领域的例子,就是我文章里提到的,PhotoRoom,具体是做什么的?服务于二手电商卖家,去掉图片背景、并增加各种细分电商应用场景所需的背景和效果。各种社交媒体、电商网站,都有不同的具有销售文案的图片,以及风格模版,用户使用后,平均提高了31%的转化率!
1)跨语言,可能是大模型最Native、现阶段最容易被感知和落地、但又最容易被忽视的能力
其实我在社群里,之前分享过很多这个角度的案例
先说一个2B方面的,情况是这样,那些出海公司每到一个国家地区,就需要了解当地各种法律法规条文,有巨大的时间成本。那有家AI公司,就专门提供“快速将当地法律法规情况翻译、整理成母语”的服务。从产品视角看, 非常清晰。
而且,2C方面,Spotify也推出AI语音翻译功能,“让你喜欢的播主用你的母语为你播报”——已经点出了本质:内容或IP价值是才是前提,不是任何一个小白都能把ROI跑正的。
另外,还有AirChat,一款所谓AI Native的社交产品。类似异步版的Clubhouse,用户创建私有或公开房间后,能用语音展开交流。
令人眼前一亮的是,基于LLM,用户发布语音之后,不仅可自动生成文本,并且还能根据用户选择的语言,模仿用户自己的音色,自动完成语音翻译。即,用户可以畅快地用母语和其他国家的人交流了!——这里面有很大的想想空间
另外还有:
……
有这么多案例,其实是很有意思的机会的。
2)现阶段AI落地的低枝果实,可能反而是情感AI
首先说,为什么情感AI重要?这里涉及很多个认知点:
a)“情感”是比NLP更底层的东西。不是我一个人这么认为,2017年我私下跟一位NLP技术牛人交流时,她就表达了这样的观点。
b)AI/机器人在(多模态)表达时,人“必然”会被动的有“情感体验”,这不是以人的意志为转移的。——举例子,我第一次现成看到大型机械臂。——所以,产品经理在设计的时候,如果只考虑理性、不考虑感性维度,一定会出问题的。比如恐怖谷效应。还比如最近那个“医院里保洁大妈跟机器人打架”的视频。
c)“情感”很可能是未来AI真正的突破方向之一,未来会有很多的“黄金机会”——效率最优,升级为情感最优。
……
为什么说,情感AI可能反而是现阶段的低枝果实?比如,大众情商平均水平是60分、人性需求是至少75分,而ChatGPT默认有70分的水准——这里就有60分—>70分之间的低枝果实可以摘取。
一个“医疗+ChatGPT”相关例子——
「……研究者们原本期望ChatGPT能承担医生大量例行工作,如撰写病例、医保理赔申诉,但实际上更多时候,医生们使用ChatGPT帮助他们,以更富同情心的方式与患者进行沟通(85%的患者表示医生的同情心比等待时间或费用更重要)。
很多医疗工作者并不擅长写出深入浅出的医学手册。例如针对酗酒者,让ChatGPT被要求以五年级的阅读水平重写时,它产生了令人信服又充满安慰性指导……」
而反过来说,在专业领域,ChatGPT类产品的准确度、稳定度,可能暂时只有70分、反而达不到95分的商用标准线(人类平均水准是92~98%,所以95%是可感知、可接受的那根线)。
跟情感AI相关的,还有一个认知点——
3)对于转化率的提升,虚拟人很可能会有“巨大”的增量空间。
why?因为虚拟人是文字、声音、图像(表情/动作)等多模态信息的集大成者,是最自然的情感沟通形式。
小冰CEO李笛提到过,几年前开始,他们和MSN以及Lawson做了大量实验,实验内容就是让AI Being和人交流,最终目的是把商品准确地推送给人,同时让人能够更愿意接受消费的商品。“最终测试表明AI推荐的商品购买率达到68%,与绝大多数人类员工推荐的购买率差不多”。
要知道,互联网/移动互联网时代,常规的推荐系统或AI 1.0时代的人机交互系统,即使把推荐算法、NLP做到极致,购买率据说也不超过20%——这里面有多么大的增量空间!这是很多做AI的人,之前没意识到的认知维度。
4)长文本
我昨天突然感觉到,长文本,可能是又一个“看起来不起眼、但增加数量就跃迁、涌现”了的东西……类似之前的堆参数。具体以后在社群里分享。
(时间关系,长期的方向,就简单分享几个结论——)
关于Agent:目前主流的“单体智能”思路有隐患,可能的突破口是“多体智能”,类似复杂系统/鸟群——单个智能体可能很简单(不一定要超过单个人类),但整体有非凡的智慧(AI Agent 团队 >人类团队)。
Agent(后面还会涉及)机器人/具身智能AR/VR/元宇宙情感AI量子计算……
详见我之前文章 《OpenAI帮助我们反思:壁垒到底在哪里》。其中包括:移动互联网能够存活的app是少数,那AI时代,会更多还是更少呢?有人可能认为更少,但我认为会更多……
1、AI是个放大器,当自己本身都搞不定业务的时候(从 0 到 1),不要指望 AI。
2、技术维度+产品维度+商业维度,不是在做加法,而是在做“归一化”。
是不能把90分作为整体产品价值的baseline的。举例:siri,10次,9次对,1次错,慢慢就不用了新澳内部资料精准一码 ,重要性解释落实方法_钻石版5.781。
3、“场景-用户-需求”之外,需要增加一个关键词,“关系”——定义了关系,就定义了约束条件和需求属性。
举例:智能汽车上的AI语音助手。传统的思路,容易局限在帮驾驶员解放双手;但如果这个场景定位,是家庭(family)家庭里,有爸爸、妈妈、儿子、女儿,那AI助理在其中是什么关系?(哆啦A梦?)音乐/听歌场景,爸爸要听歌曲A、妈妈要听歌曲B,女儿要听歌曲C,AI助理该怎么处理?是否可以调侃的方式参与这个对话?是和稀泥,还是自己来做这个坏人?
2024天天彩资料大全免费,重要性解释落实方法_钻石版5.781
…… 更扩展的说,关系可以有很多种,员工、情侣、顾问、君臣父子……
“关系”这个词的微妙之处在于,一旦定义了关系,其实就隐藏着给“价值/功能”圈了一个边界。
比如,比如老板/领导对下属,家长对子女,天然就有“优势地位”,同样的话,会比其他人份量更重;还比如,同样的话,夫妻之间可以说,但对外人,就得换个方式表达了。
即,关系带来体验;而以前,都是工具。
4、使用AI时,把AI当成人;设计AI时,把人当成AI。
1)使用AI时,把AI当成人
使用ChatGPT时,初阶是当成“搜索/工具”来获取信息,更有价值的方式,是把她(AI)当成一个人,是为了“激发”自己的灵感。
i,你获得反馈信息的质量多高,其实是取决于自己输入的数据质量的(思路、提问能力和认知水平)
ii,不要用搜索的惯性去认知和使用ChatGPT/AI 2.0产品、不要简单的一问一答。
iii,最好不是期望它直接给你答案、而是用交谈(我觉得对这个问题,balabala,你觉得如何?)
2)设计AI时,把人当成AI
在设计“XXX+ChatGPT”类产品体验时,应该怎么去思考呢?
完全跳过目前的技术局限性,直接去回想/体会,自己平时工作/生活中,是怎么跟一个活生生的人在对话交互的。
比如,你在培养实习生(或者自己被培养)的时候,你是如何给ta说明需求、指出思路/原则,然后根据他的结果反馈,再去指导ta调整?
如果好好体会这些细节,是会非常非常好的、直接有助于自己的AI产品设计的。
如果忘记了当时的场景和对话内容,怎么办?直接去看微信聊天记录!都会很有收获的。
还包括,今后和自己身边的人对话时,可以让自己把他当成一个AI,去体会你们之间的对话过程,会自己冒出很多的feature思路和认知出来的。
5、未来AI企业,方向定位将不是按照To C/To B来划分,而是按照To 人/To AI 来划分。
因为LLM、AI 2.0,天生就是要端到端的解决问题。
所以未来可能是,LLM提供基座能力、中间层提供原子能力、用户完成最后一公里(按需、自己攒一个“趁手”的工具)。
用户侧,就这么打通了。2B、2C,融为一体。
然后,是另外一片天空——机器和机器交互。
……
1、对于这种新的行业周期性机会,存在我所说的“转型红利期”,没直接相关经验,有机会拿到面试机会。
2、特别的,还会有“填补行业空白的机会”。现在,对于CUI交互规范,谁能做好,谁就能在行业历史上留下自己的印记。
3、AI 2.0时代,选什么样的AI公司老板/负责人?经历过AI 1.0 周期的。
危机危机,先说危险,再说机会
人工智能/机器人时代,很多人会被卷得非常痛苦
1)内容:信息过载严重、虚假信息过多。半年前AIGC/ChatGPT相关信息太多,都要看吐了。而且,如果缺乏有效监管,以后看到或听到的所有信息,都有可能是被伪造出来的——甄别信息的成本大幅提升。
2)职位:职场机会被压缩到60~80分位。不到60分的简单重复、容易被标准化sop掉,以及坐在电脑前的职位,背后根本是教育体系培养出的是“做题家”。而另一边,以前是90分的人才去创业,以后80分的人才,比如一个不错的产品经理,借助AI,以及2、3个朋友,就能每人一年赚个几十万,那为什么要打工?
3)而且,AI的卷,是一层一层的,先卷60分,然后卷65分,再卷70分……到最后,电影真的会成为现实:“精英+AI”掌控核心权力,最底层民众被圈养。不是欧洲那种完全免费、无约束的全民福利,而是“注意力经济”(看广告、玩游戏)。
4)这里,还会存在社会风险,就是我所说的“圈层踩踏问题”。比如,卷60分,这部分人,需要有时间和职场空间的疏散,对吧?他们需要有合适的安置之处。如果说,60分的人还没安置好,AI又卷到65分、70分了,那挤压的待安置人群圈层越来越多,是可能有社会动荡风险的。这也是为什么这么多大佬要呼吁,慢一点,慢一点。
5)安全:不仅是那种数字投毒,AI还会放大普通人作恶的能力。
6)被操控:价值观/思想认知。Sam Altman就提出过,大语言模型可以影响、甚至是主宰社交媒体用户的体验和互动。
7)心理扭曲:自私、沉迷、分不清虚拟和现实的界限
如果AI仅仅是为了人类个体的物质生活,那一定会造成人们更加自私的。
智能手机/游戏,其实已经让很多小孩子沉迷了,AI会比手机严重至少10倍。
未来,AI/元宇宙,还将极大的模糊掉人对“现实”和“虚拟”的认知界限。我看电影《失控玩家》的体会。年轻人可能会对上街打砸抢不以为然——因为虚拟世界里是可以随便打骂NPC的。
……
8)精神痛苦:所有以上问题,都会集中加权影响到每个个体的内心。
……
新兴技术落地,往往是双刃剑,其实是需要对应的“制动器”。
什么意思?
例1:电报技术是铁路技术的“制动器”
火车问世之后很长一段时间,事故频发,列车调度员们必须非常小心,想各种办法,才能让这个体系不再自己手中失控。
直到1837年电报的问世和不久之后普及,才真正被解决——让调度员提前知道有火车来,进而错开轨道上的列车。
例2:安全带是汽车的“制动器”之一
汽车是 19 世纪末被发明出来的,但直到 20 世纪下半叶,不同的国家才出台了强制要求开车系安全带的法规。可以想象,这中间必然有多少人白白丧命。
所以我想说的是,当ChatGPT被研发出来之前,我们问AI的空气动力学是什么?当ChatGPT被研发出来之后,我们需要问,AI的“制动器”是什么?
要么向上成长为最牛的人,要么躺平过生活。
都可以,但分开说。
1)对普通人
等到未来,Sam Altman的UBI(universal basic income,全民基本收入)愿景成为现实的时候,是可以选择好好生活、不用工作的。
免费发放生活必须品、不要闹事、甚至需要按照规则要求去做一些必要的动作(比如看广告、看娱乐节目、玩游戏等等)。
但关键是,有自己清晰而调和的“价值观”、以及对自己内心的把握能力。
很多人通过工作来塞满自己的时间。如果整天无所事事,很多人会觉得无聊的。
所以,至少,你需要有点兴趣爱好,以后会好过一点。
学知识,是意义不大的;得知道自己要什么。
2)AI时代超级个体的10倍、100倍、1000倍成长路径,到底在哪里
软件大牛Kent Beck说,The value of 90% of my skills just dropped to $0. The leverage for the remaining 10% went up 1000x.——个人90%的技能价值归零,但剩下10%的价值会提升1000倍。
很多人以为这是说的好玩儿的,没多想;在我看来,这是真的有可能的——
所谓的“1000 倍”增幅的可行性在于:
第一个 10 倍:构建一个系统,尽量 sop 化。
第二个 10 倍:团队
第三个 10 倍:把 1 和 2 都用 AI 实现。
最终就是超级个体、超级组织了。
不过有趣的现实问题可能在于,很多人想直接做到第3步,但其实如果第1和2步还没搞定,第3步是不现实的,因为第3步对于“认知深度”的要求,可能远比我们想象要高得多。
1)构建一个系统,尽量 sop 化。
A,为什么需要构建系统?因为如果没有系统,是不能“稳定”拿到结果的。
很多人做副业/小红书,可能运气好,一开始能赚点钱,但后来,即使外部环境没有变化,自己都可能发现“收入慢慢就降下去了”,但根本不知道问题在哪里。
甚至,更多人的情况是,一直就赚不到钱(比如最近新闻里说,3个年轻人投资几十万卖汉堡包,一天收入几十块钱),因为从来没想过,整个事情是可以被抽象成一个公式的。
收入结果=A*B*C*D*E……
要把事情做坏掉,1个因素(没做好)就够;但要想真正拿到结果,可能需要每个地方都做对!(至少不出低级失误)。
B,为什么我们从来没有锻炼过这种“构建系统”的能力呢?因为我们一直在“打工”。
企业自身,就是在构建这个“系统”,每个员工只需要让自己的长板足够长,不需要考虑“体系间如何协作”。
C,构建系统的能力,难吗?
能够走上“对商业结果负责”岗位的人,都是少数,比如老板/操盘手/部门负责人;而其中,能把系统构建好的人,更是稀缺——不仅是逻辑能力,还有,对认知能力要求太高,因为这背后是对行业/场景/用户的know-how澳彩资料免费的资料大全wwe ,时代资料解释落实_探索版7.422。
D,成功构建系统的好处
3个要素,每个做到2倍,就是8倍增长了
5个要素,每个提高60%,就是10倍增长了。
看起来,好像有点难度,对不对?
E,一个关键认知:专业产品能力和商业能力,是2个维度的能力!
这个世界上,有很多专业领域非常牛的专家,但是,他们如果自己去做一摊事,是赚不到钱的。
原因还是前面提到的,作为系统中的一环,你需要考虑的逻辑是,让自己的长板足够长,这会让自己更加不可被替代。
但是,要想让用户真金白银的掏钱出来(还要能稳定/持续),他需要给自己一个理由(不论理性或感性)。即,到底用户获得了什么价值。
我们很多时候的隐含逻辑是,我这么牛,或我的内容这么牛,你怎么还不付费啊?
但用户的心态是,你牛是牛,但跟我有什么关系?需要把这个理清楚。
F,所以,这个世界上的大多数人,从来没有真正构建过一个运转基本ok的商业系统(不论大小)、从来没有体验过“10倍增长”到底是怎样的一种体会。
G、当系统建立起来后,其中有很多简单重复的工作,是可以被“标准化/sop、自动化”来大幅优化的,比如流水线。
但是我们想一想,自己工作中,到底做过多少sop的事呢?
2)第二个 10 倍:团队
为什么说,不能跳过系统/SOP(第一个10倍)、团队(第二个10倍),直接应用AI呢?
背后的方法论原因,就是我提过多次的:
做MVP的时候,如果用真人,其实用的就是“最佳效果”来测试验证整个定位、流程和产品体验——如果用真人的效果都不可接受(这里指的是,没达到“及格”线),那就不用去试AI了。
反过来说,如果一开始就用AI,如果体验不及格,我们是无法判断,到底是产品思路错了,还是仅仅因为技术没实现好、还值得继续投入。
而且,通过“系统/SOP”和“团队”两步,我们其实是在锻炼自己用好AI的底层能力:知道自己要什么(价值观)拥有行业 know-how能够拆解任务构建一套产品和商业系统沉淀出 sop学会沟通/prompt(定义任务、目标、边界、约束条件、反馈迭代优化)
…… 上面这些,基本上就是老板/owner/操盘手/高级PM才具备的能力段位。
现实生活中的大多数人,是达不到的。
3)第三个 10 倍:把 1 和 2 都用 AI 实现
A,为什么AI还能提高10倍?
因为一方面,应用AI之后,“我”将不需要去解决人的负面影响。比如,
管理“人心”。常规的协作/团队管理,往往首先需要考虑其底层动机(为什么愿意干?)、表层情绪(当天开不开心?)、统一思想认知(在不在一个维度上?)。
人类不可能“随时随地在线”。(仅仅AI“24小时在线”这点,就有2~3倍的提升。)
突然闹出什么幺蛾子,或者有事没事来打扰我。
简答说,就是剥离人性弱点的弊端,仅使用其工具属性价值。。。
比如最近看到个例子:
同样是提问,当问同事工作问题的时候,你会发现「人性」很快会体现出来。
老板越过一层,去问下面销售或研发,「这个事儿怎么样了?」很时人的第一反应是:「老板为什么问我这个问题?」
于是,老板得到的第一个回答是:老板,我刚刚拜访过这个客户 blahblah,他要先解释一圈。因为他不知道你想要啥,其实我只是想要一个数字,相比之下 AI 这点就好很多,问啥就答啥。
B,除了单人,还有多人团队协作时的“内耗”,比如达成共识、流程损耗、互相等待在线……
这里,其实就对应前面提到的,“多体智能”——类似复杂系统/鸟群,单个智能体可能很简单(不一定要超过单个人类),但整体有非凡的智慧(AI Agent 团队 >人类团队)。
C,不需要处理前面这些问题,这能省出多少时间啊?!可以用来做更多的事情了。
D,本身AI对于个体在“工具”属性,就有降本增效的价值,这个就不多说了。2024新澳资料大全免费 ,全面解答解释落实_尊享版2.777
E,当所有以上这些benefits成为现实,还会有整个“系统”层面的价值涌现提升。
大家心里稍微算一下,整体10倍,应该是有可能的吧?
最后,要再点一下,那个可能有点触目惊心的观点:一旦我们学会“剥离人性弱点的弊端,仅使用其工具属性价值”,负面影响,是会让人,更加自私。
专栏作家
hanniman,微信公众号:hanniman,人人都是产品经理专栏作家,前图灵机器人-人才战略官/AI产品经理,前腾讯产品经理,10年AI经验,13年互联网背景;作品有《AI产品经理的实操手册》(AI产品经理大本营的4年1000篇干货合辑)、200页PPT《人工智能产品经理的新起点》。
题图来自Unsplash,基于CC0协议。
该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。