Skip to content

Commit

Permalink
Fix some typos reported in #79.
Browse files Browse the repository at this point in the history
  • Loading branch information
zhanggyb committed Apr 4, 2018
1 parent e2d581e commit 7d3f558
Show file tree
Hide file tree
Showing 2 changed files with 10 additions and 10 deletions.
3 changes: 2 additions & 1 deletion Makefile
Original file line number Diff line number Diff line change
Expand Up @@ -7,6 +7,7 @@ MKGLS = makeglossaries
RM = rm -rf
MAKE = make
TARGET = nndl-ebook.pdf
STYLES = $(wildcard *.sty)
SOURCES := $(wildcard *.tex)

IMAGEDEPS := $(wildcard images/*.tex)
Expand All @@ -17,7 +18,7 @@ IMAGEDEPS += $(wildcard images/*.jpeg)

all: graphics $(TARGET)

$(TARGET): $(SOURCES) $(IMAGEDEPS)
$(TARGET): $(SOURCES) $(STYLES) $(IMAGEDEPS)
$(TEX) $(basename $@)
# $(MKIDX) $(basename $@)
$(MKGLS) $(basename $@)
Expand Down
17 changes: 8 additions & 9 deletions chap6.tex
Original file line number Diff line number Diff line change
Expand Up @@ -1332,7 +1332,7 @@ \section{其他的深度学习模型}

\textbf{\gls*{rnn}(RNNs):} 在前馈神经网络中,单独的输入完全确定了剩下的层上的
神经元的激活值。可以想象,这是一幅静态的图景:网络中的所有事物都被固定了,处于一
种“冰冻结晶”的状态。但假如,我们允许网络中的元素能够以动态方式不断地比那话。例
种“冰冻结晶”的状态。但假如,我们允许网络中的元素能够以动态方式不断变化。例
如,隐藏神经元的行为不是完全由前一层的隐藏神经元,而是同样受制于更早的层上的神经
元的激活值。这样肯定会带来跟前馈神经网络不同的效果。也可能隐藏和输出层的神经元的
激活值不会单单由当前的网络输入决定,而且包含了前面的输入的影响。
Expand Down Expand Up @@ -1360,7 +1360,7 @@ \section{其他的深度学习模型}
的领域里占据上风。今天没有人会使用神经网络来实现 Web 服务器或者数据库程序。研究
出将神经网络和传统的算法结合的模型一定是非常棒的。RNN 和 RNN 给出的启发可能会给
我们不少帮助。RNN 同样也在其他问题的解决中发挥着作用。在语音识别中,RNN 是特别有
效的。例如,基于 RNN 的方法,已经在音位识别中取得了准确度的领先。同样在开发人类
效的。例如,基于 RNN 的方法,已经在音素识别中取得了准确度的领先。同样在开发人类
语言的上改进模型中得到应用。更好的语言模型意味着能够区分出发音相同的那些词。例如,
好的语言模型,可以告诉我们“to infinity and beyond”比“two infinity and
beyond”更可能出现,尽管两者的发音是相同的。RNN 在某些语言的标准测试集上刷新了记
Expand Down Expand Up @@ -1467,9 +1467,8 @@ \section{神经网络的未来}
机器学习技术来构建无聊的用户接口。最优的机器学习并不会在你自己的用户接口设计很糟
糕时发挥出作用。但是肯定也会有能够胜出的产品。随着时间推移,人类与计算机的关系也
会发生重大的改变。不久以前,比如说,2005 年——用户从计算机那里得到的是准确度。因
此,**很大程度上计算机很古板的**;一个小小的分号放错便会完全改变和计算机的交互含
义。但是在以后数十年内,我们期待着创造出意图驱动的用户借款购,这也会显著地改变我
们在与计算机交互的期望体验。\\
此,\textbf{计算机文化很大程度上意味着认同计算机是完全照字面意义的};一个小小的
分号放错便会完全改变和计算机的交互含义。但是在以后数十年内,我们期待着创造出意图驱动的用户界面,这也会显著地改变我们在与计算机交互的期望体验。\\

\textbf{机器学习,数据科学和创新的循环:} 当然,机器学习不仅仅会被用来建立意图驱
动的接口。另一个有趣的应用是数据科学中,机器学习可以找到藏在数据中的“确知的未
Expand All @@ -1493,7 +1492,7 @@ \section{神经网络的未来}

所以,可能更好的方式是看看机器学习的未来而不是单单看神经网络。还有个原因是我们对
神经网络的理解还是太少了。为何神经网络能够这么好地泛化?为何在给定大规模的学习的
参数后,采取了一些方法后可以避免过匹配?为何神经网络中随机梯度下降很有效?在数据
参数后,采取了一些方法后可以避免\gls*{overfitting}?为何神经网络中随机梯度下降很有效?在数据
集扩展后,神经网络又能达到什么样的性能?如,如果 ImageNet 扩大 10 倍,神经网络的
性能会比其他的机器学习技术好多少?这些都是简单,根本的问题。当前,我们都对它们理
解的很少。所以,要说神经网络在机器学习的未来要扮演什么样的角色,很难回答。
Expand Down Expand Up @@ -1601,6 +1600,6 @@ \section{神经网络的未来}
大声地下结论,对 AI 持有非常乐观的态度,但很多是缺少确凿证据和站不住脚的推断的。
我很坦白的观点是:现在下这样乐观的结论还为之过早。正如一个笑话所讲,如果你问一个
科学家,某个发现还有多久才会出现,他们会说 10 年(或者更多),其实真正的含义就
是“我不知道”。AI,像受控核聚变和其他技术一样,已经发展远超 10 年已经 60 多年了。
另一方面,我们在深度学习中确确实实在做的其实就是还没有发现极限的强大技术,还有哪
些相当开放的根本性问题。这是令人兴奋异常的创造新事物的机遇。
是“我不知道”。AI,像受控核聚变和其他技术一样,已经有 60 多年一直认为还有 10 年
的距离才能有重大发现。另一方面,我们在深度学习中确确实实在做的其实就是还没有发现
极限的强大技术,还有许多相当开放的根本性问题。这是令人兴奋异常的创造新事物的机遇。

0 comments on commit 7d3f558

Please sign in to comment.