Question 1001249: tensorflow一定要用gpu吗?

统计/机器学习 深度学习 TensorFlow

正在准备试一试tensorflow,tensorflow是一定要用gpu吗?



Answer

Answer 1:

不一定,cpu也可以的

Answer 2:

tensorflow本来就是有两个版本的,一个是cpu版,一个gpu版。


如果只是自己用的话,cpu版本其实就够了;等以后需求上去了,再搞gpu也不迟。



Question 1002867: 请问汉字CNN识别,怎么做标签呢?

统计/机器学习 深度学习 自然语言处理

看了数字识别的案例,数字采用例如数字5,label=[0,0,0,0,1,0,0,0,0,0]这种方式表达。。但是汉字呢??


Answer

Answer 1:

是啊,也是类似的。不过你也要把汉字先编个号什么的。


Answer 2:

给汉字都表号,和数字识别一样的。

Answer 3:

Question 1003259: 关于张量运算,求问框框部分运算是怎么计算的?具体运算规则是怎样的?

统计/机器学习 深度学习 TensorFlow 强化学习

如图,谢谢大家


Answer

Answer 1:

上面那个Bellman公式里就是二重循环吧

至于方框里的那个我也不是很懂,它被写成了矩阵和张量的乘法,但是这个东西还没有定义呢吧?


Question 1005863: Pytorch卷积预测,小样本预测误差小,换一个大样本误差就下降不下去了。

统计/机器学习 深度学习 计算机视觉

做了数据的归一化和多次卷积,但是误差还是下不去,都是几千之上。小样本的误差就是在50左右,误差函数用的MSE。


Answer

Answer 1:

你的y是数值吗?不太理解你的意思。是指输入的是图像,要预测的是数值?

你可以看看你的预测结果是不是每个样本都差不多大,如果是的话,说明你的模型就没有训练好,需要重新设置结构或者网络参数。


Question 1006052: 非序列数据(任务),针对种类型特征可以用embedding技术吗?

统计/机器学习 深度学习 数据降维

我的理解embedding必须在序列任务中,例如文本序列、用户行为序列等等,

但是好像“万物皆可embedding”,针对非序列数据(任务),种类型特征可以用embedding技术吗?


Answer

Answer 1:

embedding的思想是从文本处理那里开始爆发到各个应用的。

文本上的embedding主要是两类,一类就是你说的序列的,比如word2vec那种,一类就是词袋模型,比如LSA那种。

比如你做商品embedding的时候,如果你没有用户的浏览顺序,你可以认为一个购物车里的所有商品都是一个词袋。


Question 1022161: 不同mini-batch的LSTM_cell之间的隐藏状态(hidden state)和记忆单元(memory cell)的确定

统计/机器学习 深度学习 自然语言处理

当我们在一个mini-batch上训练参数并转到另一个mini-batch时,如何得到新batch的c^<0>和a^<0> ?


我的意思是,当处理第一个batch时,可以将c^<0>和a^<0>初始化为零,当完成该batch的训练时,将得到c^<t>和a^<t>。而在下一个batch中,是应该重新初始化c^<0>和a^<0>为0,还是将它们分配为上一批中的c^<t>和a^<t> ?


Answer

Answer 1:

hidden state是要清零(初始化, 清零是一种简单的初始化)的,换了batch意味着新的数据。

你可以这么想,当你测试的时候,hidden state是不是要初始化?

真正在batch之间不断学习的是各个层的参数(模型), hidden state是对数据的一种表示,数据不同hidden state肯定不同。


Question 1022254: 机器学习论文中的函数表达式都是什么意思?

统计/机器学习 深度学习

这两个公式里是什么意思?



Answer

Answer 1:

没有特别指定的话

第一个是梯度

第二个是期望


Question 1022323: 收集了一批网站的html源码,想对html进行特征提取,或者分类,请问有什么比较好的方法推荐?

统计/机器学习 深度学习 自然语言处理

数据:网页源码

目的:提取特征或者打码分类


Answer

Answer 1:

爬虫而来数据? 有具体样例没有

Answer 2:

html元数据里一般会有给搜索引擎用的keywords,此外可以在body的标题标签里提取高频的关键词


来自sofasofa(一个专业的机器学习社区),建议去sofa社区阅读,这里只是记录。防止网站在网络中走失。