tags
type
status
date
slug
summary
category
password
icon
12.4 信概
图像重建:把少量缺失的像素信息补全;在提取特征encode之后再decode出来
训练AI的隐私问题:不允许上传和保存original data的rgb图像,用抽取的深度值和红外图像进行分析
常识common sense的获取对机器是一件很困难的事
发展心理学中6种知识的基本类别:object agent places number forms social-beings
发展心理学怎么知道婴幼儿的认知?看婴幼儿注意力投入的时间,对自己很习惯的东西他不会看很长时间,说明这些东西已经是他掌握的knowledge;而令他surprise的事情,观察时间较长的事情,则是他没有掌握的
先用黑条遮住图像,拿掉黑条后两种情况 1)连续图像 2)还有一根黑条,使画面仍然不连续 小朋友对不连续的图像2)关注时间明显更长,说明他已经拥有关于图像连续性的common sense
小朋友对1~3的数字有概念;对重力有概念;知道物体不会凭空消失
12.8 信概讲座
人能理解深度学习模型吗?
LIME:对图像做扰动,看改变哪些像素使得分类函数的值变化最大,那么这些像素就是决策需要的
GradCAM、SmoothGrad:基于梯度
Transformer:注意力机制
肺部X-ray,去掉肺部之外的图像,判断的准确率反而下降了?
Covid和普通肺炎的图像由不同机器拍摄,Covid有医生签字。不能判断机器学会的到底是肺炎还是机器型号等
用传统的训练集-验证集没法判断分类器的好坏。(过拟合)
如何理解深度学习?
- 构建自带解释的模型。
- 训练过程or数据的解释。哪些训练数据影响了模型的决策?
- 推理解释。当前这个样本里,哪些输入影响了决策?这个模型靠哪些输入特征决策?
如何验证我们“理解”了深度学习?
哲学上,我们能不能从实然反推出规律(应然?)
技术上,我们把模型认为“重要”的像素去掉,如果去掉很少一点就识别不出来了,说明这些像素很重要;也可以从空白开始加上模型认为重要的像素,如果加上一点点就能判断出来,那说明这个模型找到了关键的像素
cross-model concensus。把不同模型的关注点平均起来,刚好能符合人类常识
12.13 信概
人对于世界的认知不是观察所有,而是进行采样
婴儿可以区分object和agent,agent作为智能体应该可以优化自己的行为
attention:需要组合的特征如果很多,就不容易一下子看出不一样的目标
belief:同理心的问题,能不能代入别人的视角(Sally-Anne test)
DARPA MURI
通过单张图片的输入理解agent的意图,构建3D场景
- 作者:XiaoTianyao
- 链接:https://www.xty27.top/article/suigan-2312
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。