百度首次亏损被生态闭环挡在外面
在“自由贸易”时代称雄的百度,成为“闭关锁国”时代最大的受害者。
百度终于活成了自己当初最讨厌的样子,整个互联网界都背叛了自己当年的精神主张。
没想到捧着金饭碗的百度也会亏损。2019年5月17日,百度发布2019年第一季度未经审计的财务报告,净亏损3.27亿元(去年同期净利润为66.94亿元),上市十三年半以来首次出现季度亏损。
尽管长期备受争议,仍不可否认,百度是中国PC互联网时代最重要的公司之一
2019年05月14日,北京百度总部。 (IC photo/图)
在“自由贸易”时代称雄的百度,成为“闭关锁国”时代最大的受害者。
百度终于活成了自己当初最讨厌的样子,整个互联网界都背叛了自己当年的精神主张。
没想到捧着金饭碗的百度也会亏损。2019年5月17日,百度发布2019年第一季度未经审计的财务报告,净亏损3.27亿元(去年同期净利润为66.94亿元),上市十三年半以来首次出现季度亏损。
尽管长期备受争议,仍不可否认,百度是中国PC互联网时代最重要的公司之一(甚至可以去掉“之一”)。并非百度这家公司高人一等,而是说它所代表的信息互联模式,十分接近当初人们对互联网精神的畅想,这种模式下,即便没有百度,也会出现千度、万度。
20世纪末,PC互联网开始走进中国千家万户,技术宅们建起一个个以www打头的网站,自己的地盘自己做主,一篇篇雄文美文论文以0和1组合的形式,诞生在无边无界的虚拟世界里。
然而,酒香也怕巷子深,养在深闺人不识,www们就像一个个桃花源,岛民们怡然自乐,但云深不知处,外人难知入口。你要登岛,就得在浏览器地址栏输入www.……,你只能记住你去过的岛屿的地址,但不可能看见新的风景。
搜索引擎应运而生,它真正贯彻了开放、平等、分享的互联网精神,开创性地终结了信息孤岛时代,从此,互联网真正成了互联网。1998年,谷歌搜索引擎在美国硅谷诞生;2000年,李彦宏在北京中关村创办“中国版谷歌”百度。
网友们带着问题登录搜索引擎,输入关键词,出现海量结果,有的排在第一页,有的排在百页之外,其逻辑是一套我们今天称之为“算法”的排序规则,由此延伸出一项专业技能:SEO(搜索引擎优化),亦即:利用搜索引擎的规则,提高网站在搜索引擎内的自然排名。简而言之,结构越完整、外链越丰富、更新越频繁、原创越积极、关键词越精准的网页,自然排名越可能靠前。竞价排名的本质,是钻到钱眼里破坏排序规则,作弊插队,因而遭人诟病。
撇开竞价排名因素,搜索引擎是最理想的流量入口,它以中心化的方式实现了去中心化。作为信息的供给者,只要遵循排序规则,好好经营内容,就能源源不断地吸引“游客”到访,哪怕这些游客从搜索引擎按图索骥而来,从今往后不再重来。重要的是,“网页主权”得以保留,如果价值被认可,大小网站均可自主刊载广告变现。这套机制,让再小的网站不必花钱做推广,也有发光、进阶的机会。
在信息需求侧,一个技术成熟的搜索引擎可以包打天下,搜到普天之下的全部相关网页。搜索者不必担心漏掉什么,只要关键词组合得当,有耐心翻阅足够多页,总能找到想找的结果。而且理论上,越是排名靠前的结果越可靠。
但随着智能手机的发明普及,人类进入移动互联网时代,一切都变了。PC时代www互联互通的机制被APP机制瓦解,“生态”“闭环”逻辑粉墨登场,一个个APP成为一个个孤岛,岛主们给岛民们设置了一道道隔离墙,互联网名不副实,互不相联。
百度仓促变阵,按葫芦画瓢,推出了手机百度,但用户很快发现,在移动互联网的世界里,百度在PC时代包打天下的信息抓取能力已经荡然无存。你在手机百度上搜不到微信公众号文章,也搜不到抖音上的短视频。
腾讯有腾讯的闭环,微信公司把公众号文章的搜索权限特许给了友军搜狗搜索。公众号有公众号的生态,用户只能根据底层页模板发布内容,无法直接外链。统一底层页,官方理由是更有利于用户体验,但客观上也更有利于微信公司的广告经营。用户在登录抖音后,只能根据抖音规定的格式上传视频,“友情链接”快手、微视绝无可能。
生态和闭环的本质,是大小利益平台通吃。PC时代,百度不必掏钱补贴其他网站,大家利益分明:百度赚搜索结果列表的钱,但绝不干涉各网站的内页运营。如今,各大巨头内外通吃,在新格局下大伸“上帝之手”,每年斥资数十亿元补贴内容生产者,平台间彼此竞争,但在算法暗房和统一底层页的模式下,平台方几乎成为生态、闭环内的唯一卖家。如何与内容生产者分利?信息不可能对称,平台方完全掌握主动权。
在“自由贸易”时代称雄的百度,成为“闭关锁国”时代最大的受害者。如今每有大事发生,不少人习惯登录微博搜索,因为微博是媒体属性最强的广场式生态。微信同样把搜索入口置于首页最显眼的顶栏,在那里,你可以搜索朋友圈、公众号、小程序、表情等微信生态特有的内容。
别忘了还有今日头条。这个用户时间的大杀器同样有着突出的算法能力,现已重点布局搜索,虽也面对一面面“生态墙”的阻隔,但这家APP超级工厂已经形成门类齐全的自有内容生态,加之强大的外部抓取能力,正在消解百度的比较优势。其月活超2亿、用户日均时长超1小时的数据,更是碾压“搜完就走”的百度。
百度的应对是跟进资讯信息流业务,把“手机百度”改版为“百度”,倒走今日头条走过的路——今日头条从信息流切入搜索,百度则从搜索切入信息流。信息流的商业模式系于用户数、用户时长,内容生态、闭环的打造是根基,今日头条有头条号,腾讯有企鹅号,百度则有百家号。
如今,你登录百度资讯频道搜索关键词,排序靠前的全是百家号文章,权威稿源缺位,公信力、品质令人担忧。百度终于活成了自己当初最讨厌的样子,整个互联网界都背叛了自己当年的精神主张。
(本文仅为作者个人观点,不代表本报立场)
魏川
那些你看得懂但学不会的商业模式
巴菲特曾开玩笑说"两个恐怖分子劫持了我和芒格的坐的飞机,声称在处决我们之前可以满足我们最后一个愿望,结果芒格说能不能让我再讲一次Costco的优点,而我说,先杀了我吧。"
这家被称为"芒格想带进坟墓",并被雷军疯狂追捧的公司,再也不是大洋彼岸的遥不可及,因为它入华后的首家门店将于8月27日在上海闵行区开业,中文名叫开市客。
电商冲击下,美国实体行业惨不忍睹,关店、裁员简直就是家常便饭。全球最大零售百货沃尔玛不仅在中国频频失利,在美国本土盈利水平同样持续缩水。就连百年 历史 的西尔斯百货也难逃倒闭的厄运,于2018年宣布破产。而Costco似乎是零售行业的一股清流,不仅营收和利润持续上涨,股价更是连年走高。
而各大巨头在新零售战场激战正酣,开市客选择在这个节点入华,是来扛旗,还是来搅局?
奇葩 开市客
作为美国最大的连锁会员制仓储量贩店开市客,目前在全球七个国家有超过500家分店。创始人Jim Sinegal曾就职于Price Club,之后利用其在Price Club学到的量贩店经验,于1983年在华盛顿西雅图成立开市客,1997年10月,两家公司合并,也就有了现在的开市客。
逐利是商人的天性,全世界的商家都在追求高利润,唯独开市客反其道而行:如何降低商品毛利率绞尽脑汁,今年毛利10%,明年能不能降到9%,后年要是8%就再好不过了。力求做到每个单品的毛利基本都在10%以下,如果高于14%,就要报CEO批准。
在国内,服务好的线上平台可以做到七天无理由退货,这已经让我们这些消费者感激涕零了。但在开市客,据说除了电子产品,其他产品均有90天的退换货期限。吃了一半的饼干,喝了一半的水,哪怕您就一句,看它不顺眼,都可以拿来退。
畅销品藏起来。卖的越好,店家越高兴,这是基本常识。但在开市客,卖的好的爆款产品往往都被压在不起眼的角落,因为销量大到产能跟不上,只能"省着点卖"。
SKU少的可怜。在传统印象中,我们觉得超市就应该是大而全,但在开市客,SKU只有3800个,相当于沃尔玛的十分之一。小米之家也崇尚精品策略,不知道是不是跟着开市客学来的。
员工福利好到爆。在美国的员工满意度调查中,Costco员工满意度仅次于谷歌,位列第二。要知道零售行业的员工普遍文化程度不高,要取得他们的满意是相当不易的,据说在开市客时薪是沃尔玛的两倍,离职率也只有5%。
开市客如此"奇葩",如此"绞尽脑汁"地替客户省钱,目的其实只有一个,就是引流,继而提高用户忠诚度,因为开市客有唯一一个赚钱法宝就是会员卡。
在美国,没有会员卡,是进不去开市客的,即使进去,推着一车东西去结账,会发现你无法付款,如果借后边客户的会员卡,收银员也会阻止你。为什么拿钱还买不到东西?这是因为开市客是靠会员费产生利润的,在美国,每张会员卡120美元,但卡内没有余额,花这120美元只是为了证明你有权在开市客消费而已。但是一年下来,开市客替你省下来的钱绝对远远大于这120美元。
开市客一年净利润是20多亿美元,而会员费也差不多是这个数,这也就意味着,开市客只要用10%的毛利覆盖掉运营成本就可以了。而他们的净利润就是所收取的会员费。
海底捞你学不会
黄铁鹰有本书叫《海底捞你学不会》,讲述了海底捞"变态"服务后的深层商业逻辑和管理智慧。最后得出结论:海底捞,你看得懂,但你学不会。
海底捞的服务究竟有多"变态",吃过海底捞的都深有体会。单身狗去吃,放一只布朗熊陪你解闷;一家老小去吃,有人帮你陪孩子玩;冬天戴眼镜进店的客户会第一时间送上擦镜布;甚至告诉店员刚才上的免费果盘味道不错,服务员会立刻帮你打包一个完整的西瓜过来……有人形容在海底捞吃饭,除了上厕所没人帮你提裤子,其他的都不用你亲自下手。
民以食为天,中国有四万亿的餐饮市场规模,于是年轻人纷纷将首次创业的赛道选在这里。而火锅因为其产业链短,口味也容易标准化,对后厨依赖性小,一直是餐饮小白首选的类目。有人专门研究了2018年海底捞的财报,发现海底捞的成本结构跟对手完全不同。
在分别对比了海底捞和呷哺呷哺两家火锅连锁巨头的成本结构后发现,在净利润几乎持平的情况下,海底捞的人工成本远远高于同行,但租金成本又远远低于同行。
海底捞采用扁平化管理思路,门店员工都享有极大的自主权,可以在一定范围内对客户自主打折。同时海底捞还制定了完善的人才管理办法和激励机制,甚至还有专门的海底捞大学用来培养人才。用这样的办法,海底捞为新店源源不断地输送管理干部,同时也确保了各门店员工服务流程的标准化。
同时,海底捞还涉及了产业链的上游,包括食材供应、人力资源、装修等,每一个环节,海底捞都成立了专业公司运作,同时他们还对外开放。比如海底捞的底料供应商颐海国际,甚至早于海底捞上市,而颐海国际有一半的营收来自海底捞之外的渠道。
海底捞通过高人工成本,组建了自己高标准的服务团队,接着通过对供应链的极致管理形成了食材的低成本优势和火锅口味的稳定性,最后通过品牌"碾压"房东,形成了自己独特的超低租金优势。
这就是我们看得懂的海底捞。
看得懂,但不一定学得会
一方面,开市客利用超强的供应链管理能力和极高的运营效率,将毛利率控制在10%。会员多了,也就有了跟供应商议价的能力,于是,进一步降低成本。同时开市客还通过对供应商买断来保证它产品的独特性,所谓"人无我有"。
另一方面,低SKU使得开市客的库存周期只有29.5天,远低于沃尔玛的45天。商品的高速流动进一步壮大低成本的优势。而且开市客的店面大部分都在美国,规模效应更有助于提高它的供应链管理能力。
最后,开市客的房租大部分为自建仓库,低廉的租金成本也是他取胜不二法门。
亚马逊CEO贝佐斯有一个经典的飞轮效应。指的是,为了使静止的飞轮转动起来,一开始你必须用很大的力气,一圈一圈反复地推,每转一圈都很费力,但是每一圈的努力都不会白费,飞轮会转动得越来越快。
开市客和海底捞,都是飞轮效应应用的最好例子,他们一开始都是用某一方面的优势撕开一个口子,慢慢转动了飞轮。
比如开市客最开始的低价质优,相当于在飞轮上施加了一个小小的力。接着有了会员积累,进一步提高议价能力,产品价位进一步降低。同时挣到更多利润,有条件提高员工工资,然后提供更好的服务,紧接着产生更多的会员,进一步反哺系统。飞轮于是越转越快。
海底捞则是通过服务撕开了口子,接着积累客户,供应链优势,然后客户越来越多,形成一个又一个的正向反馈,加速转动飞轮。
巴菲特有一个著名的"卵巢彩票"理论,说的是,我们很多人一生成就的天花板在没有出生的时候已经确定了。比如洛克菲勒时期的石油大亨,钢铁大王都是出生在19世纪40年代左右,赶上了美国的崛起;国内PC互联网有大成者基本也都是出生在上世界六七十年代,赶上了互联网的东风。不早不晚,风吹起来的时候他们都正当年。
对于商业同样如此。比如开市客和海底捞都是在行业竞争没有那么激烈的时代,牺牲超高利润的一部分换取产品的质优价廉、服务的无可挑剔,撕开了一个个闭环的口子,进而不断转动自己企业的飞轮。
但到了现在行业利润普遍偏低,如果还是用牺牲利润的办法来启动飞轮,那最终可能革掉自己的命。因为这些微薄的利润就是他们生存的基础。所以他们还有一个被人忽视的成功因素,就是踩准了节拍,或者说他们一开始就有"格局",希望自己能走得比别人更远。这也是商业竞争越发激烈的今天,开市客海底捞模式更难走通的原因。总之一句话,选择这样的商业模式,要问自己有没有信心耐得住寂寞?
斗胆预测一下开市客能否在中国走红?一是开市客的品牌溢价足不足以让它在中国撕开一道口子,比如租金够低,产品议价能力够强;其二是,如果没有撕开口子,美国总部有没有耐心,以亏损为代价慢慢转动这个飞轮。
BEGAN边界平衡生成对抗网络
解决问题: GAN训练模型较为困难
做法: BEGAN并没有直接去估计生成分布 pg 和真实分布 px 的距离,而是估计两者分布误差的距离。
分布之间的误差分布相近的话,也可以认为 pg 和 px 是相近的。
BEGAN 将判别器 G 设计成自编码器用来重构分布误差,并优化分
布误差之间的距离,如下式:
BEGAN 提出一种均衡概念,用以平衡 G 和 D 的训练,使 GAN 即使使用很简单的网络,不加如 BN、minibath 等训练技巧也能得到很好的训练效果。
同时还提出了一种能够在样本多样性和样本质量上均衡的超参数以及衡量模型收敛性的方法。
实验中发现 BEGAN 收敛很快,并且 G 和 D 训练平衡,但超参数的选取比较考验经验。
1.使得GAN具有快速而稳定的收敛的标准训练过程。
2.引入均衡概念,均衡鉴别器和发生器的功率。
3.提供控制图像多样性和视觉质量之间权衡的新方法
4.收敛的近似度量
使用自动编码器作为鉴别器,使用从瓦瑟斯坦距离(类似于我先前提到的KL散度,具有正定性,对称性,三角不等式特性)导出的损失来匹配自动编码器损失分布。
L:R^Nx->R+训练像素式自动编码器的 1.损失函数:
BEGAN中提出了一种思路,它使用了自动编码器做为判别器 D,它所做的是尽可能地匹配误差的分布而不是直接匹配样本的分布,如果误差的分布之间足够的接近,那么真实的样本之间的分布也会足够的接近。
D:自动编码器功能
n:是目标标准
v:是Nx维度的样例
u1,2是自动编码器损失函数的两个分布
Γ(u1,u2)是1和2的所有组合的集合
m1,2∈R是他们各自的平均值
瓦瑟斯坦距离为:
其中x1和x2是从
利用詹森不等式,可以导出W1(u1,u2)的下界:
目标是优化自动编码器损失分布之间的瓦瑟斯坦距离的下限,而不是样本分布之间的下限。
设计鉴频器,使自动编码器损耗之间的等式1最大化。
设u1为损失L(x)的分布,其中x为实样本。
设u2为损失L(G(z))的分布
其中G : RNz →RNx为生成函数
z∈[-1,1]Nz为维数Nz的均匀随机样本
由于m1,m2 ∈R+到达最大化| m1-m2 |只有两种可能的解决方案:
选择解决方案(b)作为我们的目标,因为最小化m1自然会导致对真实图像的自动编码。
给定鉴别器和发生器参数θD和θG
每个参数都通过最小化损耗LD和LG来更新
将问题表示为GAN目标,其中zD和zG是z的样本:
在BEGAN中G和D对应的损失函数:
2.引入平衡:
当产生器和鉴别器损失之间保持平衡,满足情况:
生成的样本不能被鉴别器从真实样本中区分出来,那么它们的 误差分布包括预期误差应该是相同的 ,使得其均衡。
γ引入来平衡D既可以对真实图像自动编码,又可以正确的判别输入的样本。γ很小时,说明分母部分值很大,那么此时模型专注于识别的正确率,则出现G只生成可以骗过D的图像
鉴别器有两个相互竞争的目标:
1.自动编码真实图像和从生成的图像中鉴别真实图像。
2.γ项让我们平衡这两个目标。
较低的γ值导致较低的图像多样性 ,因为鉴别器更侧重于自动编码真实图像。
将γ称为分集比。有一个自然的边界,图像清晰,有细节。
对于θD和θG和每一训练步t,来说的目标
γ∈[0,1]是一个超参数,值越小代表生成的样本多样性越低
λk是 kt + 1 的更新步长,kt表示对D判别能力的重视度
采用比例控制理论来维持平衡
这是使用一个变量kt ∈[0,1]来实现的,以控制在梯度下降过程中对L(G(zD))的重视程度。
我们初始化k0 = 0.λk是k的比例增益;
在机器学习术语中,它是k的学习率。
我们在实验中使用了0.001。
本质上,这可以被认为是闭环反馈控制的一种形式,其中kt在每一步被调整以保持等式4。
在早期训练阶段,G倾向于为自动编码器生成易于重建的数据,因为生成的数据接近于0,并且还没有准确地了解真实的数据分布。
这时L(X)>L(G(z))
与需要交替训练 D 和 G 或预训练 D 的传统训练相比,BEGAN提出的方法开始不需要稳定训练。
Adam在训练中使用默认的超参数
θD 和 θG 基于各自的损失通过独立的Adam优化器独立更新。
我们通常使用 n = 16 的批量。
3.全局收敛度量:
确定 GANs 的收敛性通常是一项困难的任务,因为最初的公式被定义为零和博弈。
结果,一个亏损上升,另一个亏损下降。
我们通过使用 平衡概念 导出了 收敛的全局度量 :我们可以将收敛过程框架为找到比例控制算法(控制装置输出信号与输人信号间呈线性关系的控制作用数学表示法)|γL(x)-L(G(Zg))|的 瞬时过程误差绝对值最小的最近重构L(x) 。这一衡量标准由两项和:
该度量可用于确定网络何时达到其 最终状态 或 模型是否已崩溃 也即是模型是否收敛。
4.模型架构
鉴别器: R Nx->R Nx是一个卷积深度神经网络,其架构为自动编码器。
Nx = H × W × C 是x 尺寸的简写
其中 H、 W、 C 是高度、宽度和颜色。
我们使用自动编码器和深度编码器和解码器。目的是尽可能简单,以避免典型的GAN诡计。
结构如图 1 所示。我们使用了 3 × 3 的卷积,在它们的输出端应用了指数线性单位。
每层重复多次(通常为 2 次)。我们观察到,重复次数越多,视觉效果越好。
卷积滤波器随着每次下采样线性增加。
下采样作为步长为 2 的子采样实现,上采样由最近邻完成。
在编码器和解码器之间的边界处,经过处理的数据的张量通过完全连接的层被映射到嵌入状态 h ∈RNh 和从嵌入状态 h∈ RNh 来,其中 Nh 是自动编码器的隐藏状态的维度,而没有任何非线性。
生成器 G : RNz → RNx 使用与鉴别器解码器相同的架构(虽然权重不同)。
但为了简化。输入状态为均匀采样的 z∈ [-1, 1]Nz。
这个简单的架构实现了高质量的结果,并展示了技术的健壮性。
此外,可选的细化有助于梯度传播,并产生更清晰的图像。受深度残差网络[8]的启发,使用消失残差初始化网络:对于连续的相同大小的层,层的输入与其输出相结合:inx+1 =carry×inx+(1 carry)×outx。
在实验中,我们从进位= 1 开始,经过 16000 步
逐渐减少到 0。
我们还引入了跳跃连接[8, 17, 9]来帮助梯度传播。第一解码器张量 h0 是通过将 h 投影到 8 × 8 × n 张量而获得的。在每个上采样步骤之后,输出与上采样到相同维数的 h0 连接。
这在隐藏状态和解码器的每个连续上采样层之间创建了跳跃连接。
我们没有探索 GANs 中通常使用的其他技术,如批量归一化、缺失、转置卷积或卷积滤波器的指数增长,尽管它们可能会进一步改进这些结果
5.通过实验来理解
变 γ 的值时,模型生成结果的多样性和质量对比效果如下所示,从中可以看出
γ值越小,生成的图像越清晰,也更接近;
γ值越大,多样性提高了,但是图像的质量同样也下降了
BEGAN的空间连续性与其他GAN相比表现更优异:
伴随着模型收敛,图像质量也在不断提升
总之:BEGAN针对 GAN 训练难易度难、控制生成样本多样性难、平衡鉴别器和生成器收敛难等问题,做出了很大的改善。
参考论文:Berthelot D, Schumm T, Metz L. BEGAN: boundary equilibrium generative adversarial networks[J]. arXiv:1703.10717,
2017
文章评论