avatar
文章
66
标签
100
分类
13
主页
实习汇报
文章
  • 分类
  • 标签
  • 归档
Xing4pycharm和jupyter对比 返回首页
主页
实习汇报
文章
  • 分类
  • 标签
  • 归档

4pycharm和jupyter对比

发表于2025-11-12|更新于2025-11-12|小土堆pytorch实践
|浏览量:

jupyter
运行快捷键shift+enter
00:08:20.621
image.png

00:08:32.864
image.png

00:11:50.712
image.png

00:12:26.132
image.png

00:15:39.018
image.png

00:15:48.915
image.png

00:16:16.134
image.png

文章作者: Xing
文章链接: http://example.com/2025/11/12/xiaotuidui_pytorch_practice/4pycharm%E5%92%8Cjupyter%E5%AF%B9%E6%AF%94/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Xing!
深度学习PyTorch实践小土堆
上一篇
1,2pytorch环境安装
基于anaconda 1安装anaconda 2安装python环境 3安装pytorch 4测试pytorch环境 1234567pythonimport torch#不报错表示安装成功torch.cuda.is_available()true#输出表示可以使用gpu 可能会遇到的问题: 在使用代理的情况下 直接使用官网的命令无法安装, 可以查看当前cmd是否开启了代理 如果没有配置 手动配置 注意这里pip是否走的是系统代理 环境配置中出现的问题 安装jupytorch的时候出现的问题 Jupyter notebook报错:No module named ‘jupyter_server.contents‘_no module named jupyter-CSDN博客 运行jupyter notebook的时候 出现没有jupyter_server的报错 尝试了网址中的方法 然后在头文件中引入了jupyter_server
下一篇
9多分类问题
使用softmax 00:01:46.755 00:01:58.457 十个分类神经网络应该如何设计 00:03:21.365 希望的要求: 输出之间竞争性 输出就是一个分布 概率大于0 概率求和为1 00:08:00.963 00:09:30.429 00:10:29.210 求和之后结果为100:12:58.619 00:13:42.719 00:14:09.852 00:14:49.264 00:14:59.977 交叉熵 00:18:14.365 00:19:17.457 00:19:36.942 00:20:50.262 00:21:47.606 00:22:31.144 最后一层是不需要手动进行非线性激活的,因为交叉熵损失会直接激活 00:24:38.539 00:24:21.657 2表示这个第二个元素最大 0表示第0个元素最大 1表示第一个元素最大 y_pred和预测的比较拟合,所以第一个预测算出来的损失会比较小 00:26:14.653 00:26:40.399 思考交叉熵和nll损失的区别 00:28:33.060...
相关推荐
2025-11-12
1,2pytorch环境安装
基于anaconda 1安装anaconda 2安装python环境 3安装pytorch 4测试pytorch环境 1234567pythonimport torch#不报错表示安装成功torch.cuda.is_available()true#输出表示可以使用gpu 可能会遇到的问题: 在使用代理的情况下 直接使用官网的命令无法安装, 可以查看当前cmd是否开启了代理 如果没有配置 手动配置 注意这里pip是否走的是系统代理 环境配置中出现的问题 安装jupytorch的时候出现的问题 Jupyter notebook报错:No module named ‘jupyter_server.contents‘_no module named jupyter-CSDN博客 运行jupyter notebook的时候 出现没有jupyter_server的报错 尝试了网址中的方法 然后在头文件中引入了jupyter_server
2025-11-12
6dataset代码实战
2025-11-12
3两大法宝
00:02:15.884 00:04:01.915 这个是dir(torch.cuda)的目录 这两个下面的目录就不一样了, aval下面有双下滑线 这是一种规范,表示这个变量不可以被篡改 help主要针对于函数 这里的available()表示为函数 返回一个bool类型的变量 表示当前cuda可用
2025-11-12
5数据加载
00:02:09.538 dataset用于将数据进行标记,标记label 00:02:52.896 dataloader为网络提供不同的数据形式 00:04:13.403 dateset需要考虑,主要实现以下功能 如何获取每一个数据以及label 告诉我们总共有多少数据 00:05:51.702 00:05:48.542 数据集分为训练数据集和测试数据集 第二种数据集00:07:12.051 这里面还有标注的label 或者直接把label直接标注在图片上 配置终端代理前 配置终端代理后,网速还是很感人 12set HTTP_PROXY=http://127.0.0.1:7890set HTTPS_PROXY=http://127.0.0.1:7890 nnd还是失败了 一样的报错还是,加载超时 nnd网络抽风 要测试您的代理配置是否成功,有几种方法可以查看您是否能够通过代理访问外部网络。以下是一些常用的测试方法: 方法 1: 使用 curl 命令 如果您的系统上安装了 curl,您可以在命令提示符中运行以下命令来测试代理连接: 1curl -I https...
2025-11-12
11卷积神经网络(高级)
之前学习的都是线性的串行结构 就是上一个的输出作为下个的输入 00:02:06.381 convoltion:卷积 pooling:池化 softmax:输出 other:拼接层 为了减少代码冗余: 使用函数调用 构造类 00:04:05.180 发现这些快长得都一样 所以把其封装成类 00:06:02.235 有一些参数比较难选 比如kernel选哪个, googlenet的思路是,再一个块中,使用多个kernnel 然后对结果进行评价,让最优的kernel权重增加 00:09:21.370 对于每一条路,变换之后bwh必须相同 c可以不同 00:11:39.744 00:11:51.236 00:11:59.066 00:13:31.719 00:13:30.545 00:13:30.545 求和也就是信息融合 00:17:39.604 00:19:24.494 上面这个的运算量太大了 00:20:06.613 直接变为原来的十分之一 这个也就是1x1的卷积神经网络的作用 网络中的网络:1x1卷积 00:22:11.511 00:23:26.25...
2025-11-12
10卷积神经网络(初级)
二维卷积神经网络 00:03:44.271 放进卷积层,然后使通道数提升 00:04:36.639 下采样层中通道数是不变的 但是宽高会变 目的减少数据量,降低运算的需求 00:05:59.344 再做一次5x5的卷积 然后2x2的下采样 最后要把三阶向量展开成一维向量 就是挨个排序 00:07:13.014 然后利用全连接层来映射到10个输出 利用各种层,进行维度变换 00:08:22.737 卷积+下采样=特征提取器 图像: rgb图像 栅格图像 00:11:25.291 00:24:15.002 00:25:19.212 取出来一个图形块 对图像块进行卷积 依次移动 输出通道数 00:28:20.851 00:29:22.737 00:29:54.087 00:30:10.046 这个就是单通道卷积的形象表示 00:30:33.601 三通道卷积 00:31:02.697 每一个通道设置一个卷积核 00:32:17.903 最后三维变成1维 00:33:10.285 00:35:20.005 由于kernel 是3x3的所以 h和w减二 ...
avatar
Xing
文章
66
标签
100
分类
13
Follow Me
最新文章
Xbot社区实习汇报2025-12-04
Fundamentals of Robotics2025-12-04
Attention Is All You Need Reading Note2025-12-04
科研小技巧汇总2025-12-04
dogecion core同步2025-11-12
© 2025 By Xing框架 Hexo 7.3.0|主题 Butterfly 5.5.2
Copyright Xing