库克教授直接就点出了顾诚的短板。
别🚷😂⚊的产业界大牛,无论微软还是谷歌,好歹有一水儿的顶级大学研究所支撑。顾诚虽然也是搞互联网的,但他🈜⚴的技术含量是最🅎🅚低的那一型。
就像后世ba🞧🖤t三巨头当中,👁🅸👁🅸腾云是技术含量最低的一个。
“你提到了神经网🈞⛁🗞络算法这个拟研究方向,但我看不出来这和你的产业有什么结合。让我们多伦多大学的教授去做那种看不到学术前景的花里胡☛哨东西,有违本校的学风。”
库克教授也不管自己只是个所长,直接就盖棺定论⚄了。
所谓“神经网络式算法”,库克教授十几年前就有涉猎,相比于80年代以来的其他“np穷🁓🅔尽理论”而言💞💺,🈜⚴其最大的特点是“没有运算核心”。
用人体来举例,人作为一个生物个体而言,是有中枢神经的绝大多数机体行动,都是大脑控制肢体,眼口耳鼻手足感知到了外部信号之后先要通过反射弧传递到大脑(部分最低级📺☑的反射,至少也要到延髓/脊髓处理)🈺🃚等大脑作出处理指令之后,手足才会作出反应。
但是如果把大脑单独作为一个独立个体解剖开来看⚄,大脑内部上千亿个神经元是平等的。并不存在“某一小撮神经元高于其他周边神经元、从而在处理信息时先由这一撮神经元预处理、预处理完之后再交给下一撮神经元处理”这样的先🃲后顺序。
(神经网络当然还有其他很多基础特点,这里仅仅讨论和“遗传算法/退火算法”的主🖍要区别,所以不多赘述了。否则能水几万字,大家还看不☛懂。)🈡⛜
当年“神经网络”的概念被提出时,就是为了探讨一种让电脑高效处理类似于“找到礼堂里到底有没有我认识的人”问题的新方法:如果可以有多个电脑,自然随机地分配任务,并行从多个点开始用就近算法寻找,那🈺🃚么自然可以在“单核cpu”性能比较弱的情况下,通过堆砌cpu数量加快问题的解决速度。
但这个概念并没有🈞⛁🗞“节约计算👁🅸资源”,因为理论上它只是把“1台电脑10小时工作量”变成了“10台电脑1小时的工作量”而已。而且这种最原始的“神经网络”也依然没法解决那些“似是而非”的模糊问题他们只能回答“有我认识的人/没有我认识的人”这种非此即彼的问题。
库克点名了在这个领域让顾诚对其应用模型说出个子丑寅卯来,顾🎘👖诚自然不能避战。
“我拜读过辛顿教授对于神经网络的最新模型假说,卷积神经网络,以及与之配套的学习型算法。我认为这个东西可以和互联网的自动识别/索引🗔🜲工具相结合🖋👅。至🚺😜于具体的应用场景么……那就属于商业机密了,恕我无可奉告。”
“卷积神经网络的新用法?”
史蒂芬.库克教授一愣,但很快冷🔑静下来,他可不是一个概念就🂽🔔能忽悠住的。
“看来,顾先生要论述🅖🆥的重点,就在于‘卷积’上面了?”
“没错,如果没有‘卷积’,仅💁有‘神经网络’,我们依然没法讨论近似于人脑判断的模糊问题。”🎧📚顾诚一副成竹在胸的样子,似乎对对方的反应早有预判。
他打开电脑,接上投影仪🁂🂾🔛,屏幕上出现了一张🈙猫🅑🅳的图片。
“我用图上这只猫举例子尽管这只猫一只耳朵竖着一只耳朵折了,眼珠瞳孔也有点不正常,尾巴还特别短,毛色肮脏还和照片的背景色非常🀶🁓接近,但我作为一个人类,还是一眼就认🆈🍢出了这确实是一只🗡🝋🉥猫。
现在,我用我根据辛顿教授的阀值思想编写的自学程序,用机器对这只猫是否是猫进行初次预判。在这个算法里,我们⛀预构了30个组合特征量,比如‘猫眼’、‘猫耳’‘猫毛’、‘猫尾’……然后用三十个神经元单位的处理资源,分别针对每一个组合特征量进行预判,然后分别给出结果。
在这三十个神经元单位内部,我们再根据‘本图猫眼与本神经元见过的猫眼’之间的像素相似度作出判断,给出一个积值,从而得到‘这有85%概率是一只猫眼’或者‘有70%概率是一只猫耳’之类的参考量。最后,把这30个组合特征量按照默认1:1的权重进😶🅵行组合,最终平均分高于60分就判定‘这是一只猫’。”
“那成功率肯定很可怜。”库克教授耸耸肩🌸,一脸⚄的悲悯。