原创 05 Transformer 中的前饋神經網絡(FFN)的實現

2:20:理論鏈接 博客配套視頻鏈接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 鏈接:https://github.com

原创 018 人生中第一次用 Python 寫的一個小程序_猜年齡(再次強調,重視基礎)

博客配套視頻鏈接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 鏈接:https://github.com/nickchen

原创 017 Python 流程控制之 if 判斷

博客配套視頻鏈接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 鏈接:https://github.com/nickchen

原创 02 如何判斷你的“創新”是否可以水一篇論文

博客配套視頻鏈接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 鏈接:https://github.com/nickchen

原创 01 如何具備編程思想(以 Python 舉例)

https://www.cnblogs.com/nickchen121/p/10718112.html 6:10 想做開發的有沒有

原创 00 你想要學習的 AI+Python,捷徑在這裏

16:00 學習路線 專科(投資與理財),自考本(金融管理),讀研(計算機) 基本上都是自學 本事沒多少,嘴巴會吹 個人履歷 https://www.cnblogs.com/nickchen121/p/12056666.html Pytho

原创 03 Transformer 中的多頭注意力(Multi-Head Attention)Pytorch代碼實現

3:20 來個贊 24:43 彈幕,是否懂了 QKV 相乘(QKV 同源),QK 相乘得到相似度A,AV 相乘得到注意力值 Z 第一步實現一個自注意力機制 自注意力計算 def self_attention(query, key,

原创 0201 爲什麼 Pytorch 定義模型要有一個 init 和一個 forward,兩者怎麼區分

https://www.bilibili.com/video/BV1GB4y1H7hq?spm_id_from=333.999.0.0&vd_source=b1ce52b6eb3a9e6c2360a4b7172edf5a class Lay

原创 015 Python 的輸入輸出和字符串格式化(終於可以和計算機交流了)

#!/usr/bin/env python # -*- coding:utf-8 -*- # Datatime:2022/7/26 20:11 # Filename:015 Python 的輸入輸出和字符串格式化(終於可以和計算機交流了).

原创 014 Python 的數據類型(數字、字符串、列表、字典)

#!/usr/bin/env python # -*- coding:utf-8 -*- # Datatime:2022/7/24 20:31 # Filename:014 Python 的數據類型(數字、字符串、列表、字典).py # T

原创 000 通過 Pytorch 實現 Transformer 框架完整代碼(帶註釋)

#!/usr/bin/python3.9 # -*- coding: utf-8 -*- # @Time : 2021/10/29 10:48 # @Author : nickchen121 # @Email : nickche

原创 02 Transformer 中 Add&Norm (殘差和標準化)代碼實現

python/pytorch 基礎 https://www.cnblogs.com/nickchen121 培訓機構(Django 類似於 Transformers) 首先由一個 norm 函數 norm 裏面做殘差,會輸入( x 和 淡

原创 00 通過 Pytorch 實現 Transformer 框架完整代碼

# 通過 pytorch 構建一個 Transformer 框架 # 5:36(要不要收費) # huggingface # transformers # https://www.bilibili.com/video/BV1At4y1W

原创 1001 Attention 和 Self-Attention 的區別(還不能區分我就真的無能爲力了)

通過 pytorch 去構建一個 transformer 的框架 不是導包,不是調包俠 注意力機制是一個很寬泛(宏大)的一個概念,QKV 相乘就是注意力,但是他沒有規定 QKV是怎麼來的 通過一個查詢變量 Q,去找到 V 裏面比較重要的東西

原创 012 Python約定俗稱的常量

#!/usr/bin/env python # -*- coding:utf-8 -*- # Datatime:2022/7/18 21:13 # Filename:011 Python約定俗稱的常量.py # Toolby: PyChar