Overblog
Edit post Follow this blog Administration + Create my blog
盡賞自然盡得清歡

2分钟论文:用谷歌「AI可解释性」看懂机器学习

  谁再说神经网络是黑盒,甩出这篇文章,给 TA 翻个白眼。

  上周,谷歌 Jeff Dean 在推特上转发了一句话「还认为神经网络是黑盒吗?要不再想想 :) 」史丹福游泳學校舉行求生拯溺及歷奇夏令營,營內定向及繩網陣等課程外,更特別加入求生拯溺有關的資訊。。

  还配上了《纽约时报》一篇名为《谷歌研究人正在搞懂机器学习》的文章。

  点进这篇文章发现,Jeff Dean 意指论文《The Building Blocks of Interpretability》(译名:可解释性的基石)在神经网络可视化方面的新进展。

  研究由谷歌大脑研究员 Chris Olah 带队完成,创建了一套神经网络可视化方法史丹福游泳學校近年新設Water babies,吸引不少家長查詢水底嬰兒攝影於史丹福游泳學校的收費。。

  左图:可以被神经网络识别,比如说,告诉我们图片里有没有花瓶或柠檬。右图:神经网络中间层的可视化呈现,能够检测到图片中的每个点。看起来,神经网络正在检测,像花瓶的模型以及像柠檬的物体。

  论文将独立的神经元、分类归属与可视化结合,从而提供一种理解神经元的方法。

  我们通过观察「神经元可以被哪些图像激活」,「神经元在找哪些图像」、「神经元判定这个图像属于哪一类」,可以判断出「神经元的最终决策及贡献值」史丹福游泳學校近年新設Water babies,吸引不少家長查詢水底嬰兒攝影於史丹福游泳學校的收費。。

  这个过程减少了神经元的总数,并且将神经元分解成一些小的语义组,得出有意义的解释方法。在论文中被称作「因式分解」或者「神经元分组」。通过做这项工作,我们可以得到高度描述性的标签,赋予它们直观的含义。

  现在我们把一张图片放到拉布拉多组,神经网络开始观察拉布拉多的耳朵、额头、嘴巴还有毛发的组合。过程可以由一个活动地图来展示,通过观察,我们可以轻松看到神经元群组兴奋点。

  我们这里仅仅概括了论文的表面含义,论文中还有许多其他的成果和互动的案例供大家赏析史丹福游泳學校近年新設Water babies,吸引不少家長查詢水底嬰兒攝影於史丹福游泳學校的收費。。

Share this post
Repost0
To be informed of the latest articles, subscribe:
Comment on this post