【完结】AI1000问以后知识星球和B站见啦

学习从来都是从大处着眼,小处着手。前段时间公众号开通了专栏《AI 1000问》,专门选择很小,容易被忽视,普通但是不简单,可以引申很多思考的问题得到了大家的喜欢,现在已经12期了。

因为知识点无法系统性串接,而且内容更新会不定时,所以后续AI1000问就会全部并入知识星球了,欢迎继续来关注噢。

下面我们再来回顾一下之前的问题12个问题吧,在没有看我们公众号内容之前,你都能回答出来吗?

第1问

做过图像分类项目或者看过文章的小伙伴们应该都知道,在论文中进行各类方法的比较时,要求使用同样的数据集。而为了公平的比较,网络的输入大小通常都是224*224的大小,那为什么呢?你第一时间思考出答案了吗?

第2问

相信大家也都知道LeNet5这个经典的卷积神经网络,它有3个全连接层,输出维度分别是120,84,10,不知道大家知不知道为什么倒数第2个全连接层的维度是84呢?这背后有一个有趣的小故事,考验论文是不是看得比别人细致,思考是不是比别人更多的机会来了。

第3问

做图像处理的我们应该都知道,OpenCV是我们必备的一个工具,在使用OpenCV读取图像时你应该也发现了读取出来的数组居然是BGR格式,而不是我们听的最多,用的最多的RGB格式,这是为什么呢?

第4问

现在说起人工智能,聊起AI,每个人或多或少都能说出一点,从历史到未来,从图灵到冯诺依曼,从SVM到CNN等等,但是如果问你是否知道机器学习和模式识别有什么区别?我相信大多数人很懵圈,这两个东西有区别吗?

第5问

人脸识别一直以来都是当前生物特征识别研究的热点之一,人脸识别技术在工业界应用价值尤为突出。那么face detection、alignment、verification、identification(recognization),你能分的清楚吗?

第6问

我们都知道在2014年ILSVRC比赛中GoogLeNet获得了冠军,其所用模型参数不足AlexNet的1/12,但性能却比AlexNet好不少。那么为什么GoogLeNet要取一个跟作者名字没有关系,也不能直接表现出网络特点的InceptionNet作为名字呢?

第7问

想必大家也都听过熵这个概念,也都知道softmax以及softmax loss这个概念,那么交叉熵和softmax loss有什么区别和联系呢?。

第8问

想必熟悉图像噪声和和图像信噪比的应该都听说过dB,一般监控摄像机的图像信噪比是50dB,信噪比的典型值一般为45-55dB,若为50dB,则图像有少量噪声,但图像质量良好;若为60dB,则图像质量优良,不出现噪声。说了这么多dB,那你知道dB的由来吗?

第9问

在很多的书以及一些公开数据集中,都会将数据集分为训练集,验证集和测试集,看起来验证集和测试集并没有区别,为什么要分这两个呢?

第10问

我们知道现在在构建CNN时大家喜欢用3*3的卷积,而不是早期的5*5,7*7等更大尺寸的卷积,如vgg系列网络中全部使用了3*3的卷积。那么你知道为什么这样做吗?

第11问

熟悉CNN应该都知道常见的卷积核都是3*3或者5*5等,也就是奇数*奇数,似乎都没看过偶数的,这是为什么呢?

第12问

大家都知道图像分割(image segmentation)是怎么回事,就是将每个像素进行分类。常常将图像分割用于抠图替换背景,但是抠图真的只是图像分割就能搞定吗?为什么还有个技术叫做image matting呢?

如果你喜欢视频,下面是几个讲解,公众号限制最多只能放3个。

点击边框调出视频工具条
点击边框调出视频工具条
点击边框调出视频工具条

看了这么多,你在看我们答案之前,都能回答出几个问题呢?不妨给会的投上一票,这样也能看看其他小伙伴们都掌握地如何。

然后就是重要通知了!主要有两个。

1、图文版本的《AI1000问》以后将每天在知识星球更新。

2、视频版本的《AI1000问》以后将在bilibili同步更新。

直播预告

今日看图猜技术

有三AI生态

转载文章请后台联系

侵权必究

(0)

相关推荐