برچسب ها
abduction
abstract algebra
accuracy
activation
activation function
adam
adamw
adversarial
affine sets
AI
alex net
analogy
api doc
apidoc
artifact
Artificial Intelligence
artificial neural network
attack
auto encoder
autoencoder
average pooling
backtracking
Barto
basicConfig
batch normalization
batch size
bengio
bias
bias variance
bi criterion
black library
BRNN
CapsNet
capsule network
casting
classification
CNN
coarse to fine
code block
code-block
code layout
code smell
Computer Vision
condition number
configuration
confusion matrix
convergence
convexity
convex sets
conv net
convolutional
convolution over volume
cosine learning rate decay
cost function
covariate
covariate shift
cross correlation
data augmentation
data mismatch
dataset
debiasing
decision boundaries
deduction
deep learning
deep reinforcement learning
deep RNN
dense layers
dense net
DenseNet
design pattern
differentiation
dilated convolution
directive
discriminative models
distortion
distribution
DL
__doc__
doc string
docstring
documentation
dropout
early stopping
edge
embedding
embedding matrix
end to end
English
English Grammar
entrepreneurship
epoch
epub output
equivariance
error surface
evaluation
evaluation criterion
extensions
F1
F1 score
false negative
false positive
feature detector
fileConfig
FileHandler
filter
flattening
formatter class
full convolution
fully connected
GAN
GD
generative models
geometric deep learning
getLogger
global average pooling
glorot
googlenet
GoogLeNet
gradient checking
gradient descent
graduate program
group theory
GRU
hanlder class
He
hierarchical features
Hinton
hugging face
hyperlink in sphinx
hyperparameter
iid
ill condition matrix
image dataset
ImageNet
image transformation
imbalanced dataset
__import__
importlib
inception
include
induction
inductive bias
initialization methods
interpolation
invariant
is operation
iterable
iteration
iterative approach
JsonFormatter
jupyter notebook
jupyter notebook notes
keras
l1
l2
language model
latex output
layer normalization
LeakyRelu
learning rate
learning rate decay
LeNet-5
linear algebra
linear regression
links in sphinx
Littman
locality
localization
locally connected
logger class
logging hierarchy
logging.ini
logging in python
logging library
logic
logistic
logistic regression
log levels
LogRecord class
loss function
lr
LSTM
machine learning
machine translation
mae
MAE
make.bat
Makefile
markup language
math
math equations
max pool
max pooling
mean absolute error
mean squared error
mini batch
ML
model evaluation
module
momentum
mse
MSE
multi class classification
multi label classification
mypy
__name__
name convention python
negative edge
negative sampling
nesterov
network in network
neural network
neural style transfer
neuron
newton method
newton raphson
NiN
NLP
node
normal equation
normalizing
note
number of layers
number of neurons
one hot
one-hot
optimization
optional
package
padding
paper
parameter
pattern detector
penalty function
pep 257
pep257
pep 8
pep 8 warning
polynomial regression
pooling
positive edge
PR-AUC
precision
prelu
probability
programming
pycharm
pycharm inspections
pycharm notes
pycodestyle
pylint
pylintrc
pytest
python
python code quality
python code smells
python enhancement
python import
python importing notes
python json logger
python-json-logger
python type hint
python type hinting
quantization
quickstart
random restart
recall
regression
reinforcement learning
relu
removeHandler
residual network
res net
ResNet
resolution
re structured text
reStructuredText
resume
RL
rmsprop
RNN
ROC
ROC curve
roles
root logger
rprop
rst
R two score
same convolution
self attention
self-attention
self-driving cars
self supervised
self-supervised
seq2seq
sequential data
setLevel
sgd
sgdw
shallow neural networks
shpinx directive hlist
shpinx directive warning
shpinx roles
shuffle
sigmoid
similarity
small dataset
SmoothRelu
softmax
sosc
sparse connections
sparsity
spatial data
spatial transformer network
sphinx
sphinx build
sphinx domain
sphinx info list
sphinx viewcode extension
spiking neural network
standardizing
StreamHandler
stride
strided convolution
structural data
style guide for python code
subderivative
super resolution
supervised learning
Sutton
symmetry problem
tanh
TDD
technical strategy
temporal data
tensorflow
test driven development
theme
threshold
thresholding
tikhonov
toctree
token
training
transfer learning
transformer
translation invariance
true negative
true positive
truncated normal distribution
typing module
union
units
vanilla gradient descent
vanishing problem
variational auto encoder
vectorization
VGG
viscosity
Visualize
weight sharing
white space
wolfe
word2vec
word embedding
xavier
zen of python
سایر برچسب ها
بایاس در هوش مصنوعی
آموزش transformer
آموزش شبکه transformer
آموزش ترنسفرمر
آموزش شبکه تبدیل کننده
آموزش مدل تبدیل کننده به فارسی
آموزش تبدیل کننده به فارسی
شبکه تبدیل کننده
گرامر انگلیسی
English Grammar
ریاضی
تبدیل کننده
داده ساختار یافته
پیچشی
معرفی وبسایت
آموزش tensorflow فارسی
آموزش tensorflow
کارآفرینی
تنسورفلو فارسی
کراس
معرفی دیتاست
معرفی مقاله
لایه ادغام
نکته آموزشی
نرمال کردن بچ
نرمال کردن لایه
داده مکانی
یادگیری عمیق هندسی
انتخاب داده
بچ سایز
پایتون
خودرو خودران
جبر خطی
تئوری گروه
نظریه گروه
جبر
نرخ یادگیری
مشتق گیری
تمام اتصال
اسپایکینگ
رزومه
عمومی
توسعه تست محور
الگو طراحی
خصمانه
تنسورفلو
ترنزفرمر
یادگیری تقویتی چند عامله
دکتری
کارشناسی ارشد
مقاله مروری
مقاله
یادگیری تقویتی عمیق
معرفی کتاب
افزایش دیتا
رلو
کپسول نتورک
شبکه کپسول
ماشین لرنینگ
یادگیری تقویتی
آموزش lstm
deep learning آموزش
آموزش ماشین لرنینگ
الگوریتم یادگیری عمیق
دوره جامع یادگیری عمیق
تابع هزینه در شبکه عصبی
تابع هزینه در یادگیری عمیق
تابع هزینه در یادگیری ماشین
دوره بینایی ماشین
پایان نامه یادگیری عمیق
شبکه عصبی چیست
یادگیری عمیق چیست
آموزش شبکه عصبی
آموزش دیپ لرنینگ
دوره یادگیری عمیق
دوره دیپ لرنینگ
آموزش شبکه عصبی به فارسی
آموزش یادگیری عمیق ایرانی
آموزش یادگیری عمیق به فارسی
آموزش شبکه عصبی CNN فارسی
آموزش شبکه عصبی lstm فارسی
آموزش lstm فارسی
آموزش یادگیری عمیق فارسی
آموزش شبکه عصبی فارسی
آموزش sphinx
آموزش اسفینکس به زبان فارسی
آموزش sphinx به زبان فارسی
پیکربندی لاگر
پایچارم
اسفینکس
لاگ رکورد
نوشتن داکیومنتیشن در پایتون
نوشتن اسناد پایتون
خطاهای رایج در پایتون
لاگ گیری در پایتون
کتابخانه logging در پایتون
کتابخانه logging
روش nesterov
روش بهینه سازی نسترو
آموزش deep learning
آموزش شبکه عصبی به زبان فارسی
آموزش یادگیری عمیق به زبان فارسی
آموزش یادگیری عمیق
کانولوشن
احتمال
تابع پنالتی
نسترو
یادگیری ماشین
لرنینگ ریت
شرط ولف
گرادیان نزولی
دادگان آموزش
دیتاست
تابع هزینه
پردازش زبانهای طبیعی
بینایی ماشین
اتو انکودر
هوش مصنوعی
آدام
آدام دابلیو
تابع فعالیت
استقرا
یادگیری تحت نظارت
بهینه سازی
شبکه کانولوشنی
شبکه بازگشتی
شبکه عصبی
یادگیری ژرف
یادگیری عمیق