资源经验分享神经网络与深度学习笔记(四):向量化以提高计算速度

神经网络与深度学习笔记(四):向量化以提高计算速度

2019-11-28 | |  69 |   0

原标题:神经网络与深度学习笔记(四):向量化以提高计算速度

原文来自:博客园      原文链接:https://www.cnblogs.com/geeksongs/p/11145776.html


我们在计算模型w的转置乘上x的时候,往往需要把w和x分别进行向量化然后运算,因为这样会使我们的计算机得到结果的时间更快,而且这种方法不管是在CPU还是在GPU上都是成立的,首先我们来看看代码:

import numpy as npimport time
a=np.random.rand(1000000)
b=np.random.rand(1000000)
toc=time.time()
c=np.dot(a,b)
tic=time.time()print("向量化之后计算的时间为:"+str(1000*(tic-toc))+"ms")
c=0
tic=time.time()for i in range(1000000):
    c+=a[i]*b[i]
toc=time.time()print("不做向量化计算之后的时间为:"+str(1000*(toc-tic))+"ms")

第一种方法方法运用了向量化来计算,也就是numpy当中的dot函数来计算,第二种方法则是利用了我们传统的for循环来进行计算,我们对每一个方法所的时间都做了记录,输出的结果如下:

向量化之后计算的时间为:1.0008811950683594ms
不做向量化计算之后的时间为:449.3072032928467ms

 

免责声明:本文来自互联网新闻客户端自媒体,不代表本网的观点和立场。

合作及投稿邮箱:E-mail:editor@tusaishared.com

上一篇:随机森林--你想到的,都在这了

下一篇:人工智能03 状态机

用户评价
全部评价

热门资源

  • Python 爬虫(二)...

    所谓爬虫就是模拟客户端发送网络请求,获取网络响...

  • TensorFlow从1到2...

    原文第四篇中,我们介绍了官方的入门案例MNIST,功...

  • TensorFlow从1到2...

    “回归”这个词,既是Regression算法的名称,也代表...

  • 机器学习中的熵、...

    熵 (entropy) 这一词最初来源于热力学。1948年,克...

  • TensorFlow2.0(10...

    前面的博客中我们说过,在加载数据和预处理数据时...