第42章 给李总一点小小的技术震撼(1 / 2)

加入书签

这种与人高强度交互的AI智能,只要它的能力提升了一点,人们就很难继续回去接受性能更差的版本了。</p>

就如同分辨率一般,大家看惯了高清之后,是没法接受模糊的480p的。</p>

一旦输掉了大模型的军备竞赛,绝大部分用户都会被顶部的巨头虹吸走。</p>

而想要取得ChatGPT这样的成功,其实技术层面的占比就不是特别大了。</p>

GPT和GPT2都是论文代码都开源的技术,只不过当时BERT类的,将语言任务具体分为几个分支的技术方式更加的火爆。</p>

因而GPT系列这样专注语言生成的技术,则一直被忽视。</p>

GPT3,GPT3.5,在默默无闻的情况下持续迭代新的技术,这在华国的互联网氛围内是非常困难的事情。</p>

曾经辗转过燕京尚海2-3个大厂的孟繁岐,深知这些互联网大厂的尿性。</p>

只要稍稍看到一些技术的突破和成果,所有的人都在问一个问题,“到底怎么才能把它变成钱?”</p>

过分无意义的内卷和竞争,导致996的大厂们很难去接受一个需要迭代几年以求一鸣惊人的大突破。</p>

而这个方向的技术,又恰恰是高校基本上无法负担得起的。</p>

孟繁岐从来不是崇洋媚外,厉外垃同的人。但他纵观AI的发展史,也不得不承认,围棋的AlphaGO,蛋白质的AlphaFold,乃至突破性的大模型,ChatGPT。</p>

却始终没有一個是华国出品。</p>

难道是华国人不够聪明吗?当然不是。</p>

去翻阅一篇篇顶尖的AI论文,很容易就可以发现很多明显一眼就是华国人的名字。</p>

可越到开创性,突破性的工作,这些华国人的机构就总是国外的院校和研究院。</p>

这才是孟繁岐即便借助重生的优势,也不得不选择去硅谷发展的原因。</p>

想要在国内的大厂,打好坚实的研究基础,所要付出的努力,需要承担的压力都实在太大了。</p>

模型的设计,理念的提出,只在早期可以起到如此显著的效果。</p>

越到后面,其实高质量的数据会起到更加关键的作用。</p>

“所以你基本上完全否定了小模型的价值?”李彦弘对这个观点,不敢苟同。“在我看来,小模型和移动端模型与智能,是有非常广大的市场和前景的。”</p>

“这取决于具体的应用场景,终端的智能究竟做什么用途,是否可以稳定联网。如果只是最简单的图像分类和检测,又在无法稳定联网的情况下,当然还是具有一定的价值。”</p>

“比如自动驾驶场景。”孟繁岐补充道,“我怎么会否定小模型的价值呢,作为研究算法的程序员,我相当关注具体模型和技术的精确度和运行时间。”</p>

孟繁岐从包中掏出了几张检测算法的实验记录表格,“李总,你可以看看我过去几个月的实验结果。我是在十分了解小模型加速优化的情况下做出的判断,而跟您谈合作,我也不是只靠着一个竞赛的冠军。”</p>

IMAGENET竞赛才刚刚结束没多久,生成式对抗网络这么爆炸的创意,论文也刚刚发布出来,这小子竟然还有时间和精力去搞其他的研究?图像的检测算法?</p>try{ggauto();} catch(ex){}

不得不承认,李彦弘被震惊了,但很快他就发现自己还震惊早了。</p>

这特么是什么恐怖的结果?在检测准确度有质的飞跃的同时,模型的运行推理速度竟然是现在顶尖算法的一百多倍??</p>

↑返回顶部↑

书页/目录