برچسب ها

برچسب ها

abduction abstract algebra accuracy activation activation function adam adamw adversarial affine sets AI alex net analogy api doc apidoc artifact Artificial Intelligence artificial neural network attack auto encoder autoencoder average pooling backtracking Barto basicConfig batch normalization batch size bengio bias bias variance bi criterion black library BRNN CapsNet capsule network casting classification CNN coarse to fine code block code-block code layout code smell Computer Vision condition number configuration confusion matrix convergence convexity convex sets conv net convolutional convolution over volume cosine learning rate decay cost function covariate covariate shift cross correlation data augmentation data mismatch dataset debiasing decision boundaries deduction deep learning deep reinforcement learning deep RNN dense layers dense net DenseNet design pattern differentiation dilated convolution directive discriminative models distortion distribution DL __doc__ doc string docstring documentation dropout early stopping edge embedding embedding matrix end to end English English Grammar entrepreneurship epoch epub output equivariance error surface evaluation evaluation criterion extensions F1 F1 score false negative false positive feature detector fileConfig FileHandler filter flattening formatter class full convolution fully connected GAN GD generative models geometric deep learning getLogger global average pooling glorot googlenet GoogLeNet gradient checking gradient descent graduate program group theory GRU hanlder class He hierarchical features Hinton hugging face hyperlink in sphinx hyperparameter iid ill condition matrix image dataset ImageNet image transformation imbalanced dataset __import__ importlib inception include induction inductive bias initialization methods interpolation invariant is operation iterable iteration iterative approach JsonFormatter jupyter notebook jupyter notebook notes keras l1 l2 language model latex output layer normalization LeakyRelu learning rate learning rate decay LeNet-5 linear algebra linear regression links in sphinx Littman locality localization locally connected logger class logging hierarchy logging.ini logging in python logging library logic logistic logistic regression log levels LogRecord class loss function lr LSTM machine learning machine translation mae MAE make.bat Makefile markup language math math equations max pool max pooling mean absolute error mean squared error mini batch ML model evaluation module momentum mse MSE multi class classification multi label classification mypy __name__ name convention python negative edge negative sampling nesterov network in network neural network neural style transfer neuron newton method newton raphson NiN NLP node normal equation normalizing note number of layers number of neurons one hot one-hot optimization optional package padding paper parameter pattern detector penalty function pep 257 pep257 pep 8 pep 8 warning polynomial regression pooling positive edge PR-AUC precision prelu probability programming pycharm pycharm inspections pycharm notes pycodestyle pylint pylintrc pytest python python code quality python code smells python enhancement python import python importing notes python json logger python-json-logger python type hint python type hinting quantization quickstart random restart recall regression reinforcement learning relu removeHandler residual network res net ResNet resolution re structured text reStructuredText resume RL rmsprop RNN ROC ROC curve roles root logger rprop rst R two score same convolution self attention self-attention self-driving cars self supervised self-supervised seq2seq sequential data setLevel sgd sgdw shallow neural networks shpinx directive hlist shpinx directive warning shpinx roles shuffle sigmoid similarity small dataset SmoothRelu softmax sosc sparse connections sparsity spatial data spatial transformer network sphinx sphinx build sphinx domain sphinx info list sphinx viewcode extension spiking neural network standardizing StreamHandler stride strided convolution structural data style guide for python code subderivative super resolution supervised learning Sutton symmetry problem tanh TDD technical strategy temporal data tensorflow test driven development theme threshold thresholding tikhonov toctree token training transfer learning transformer translation invariance true negative true positive truncated normal distribution typing module union units vanilla gradient descent vanishing problem variational auto encoder vectorization VGG viscosity Visualize weight sharing white space wolfe word2vec word embedding xavier zen of python


سایر برچسب ها

آموزش transformer آموزش شبکه transformer آموزش ترنسفرمر آموزش شبکه تبدیل کننده آموزش مدل تبدیل کننده به فارسی آموزش تبدیل کننده به فارسی شبکه تبدیل کننده گرامر انگلیسی English Grammar ریاضی تبدیل کننده داده ساختار یافته پیچشی معرفی وب‌سایت آموزش tensorflow فارسی آموزش tensorflow کارآفرینی تنسورفلو فارسی کراس معرفی دیتاست معرفی مقاله لایه ادغام نکته آموزشی نرمال کردن بچ نرمال کردن لایه داده مکانی یادگیری عمیق هندسی انتخاب داده بچ سایز پایتون خودرو خودران جبر خطی تئوری گروه نظریه گروه جبر نرخ یادگیری مشتق گیری تمام اتصال اسپایکینگ رزومه عمومی توسعه تست محور الگو طراحی خصمانه تنسورفلو ترنزفرمر یادگیری تقویتی چند عامله دکتری کارشناسی ارشد مقاله مروری مقاله یادگیری تقویتی عمیق معرفی کتاب افزایش دیتا رلو کپسول نتورک شبکه کپسول ماشین لرنینگ یادگیری تقویتی آموزش lstm deep learning آموزش آموزش ماشین لرنینگ الگوریتم یادگیری عمیق دوره جامع یادگیری عمیق تابع هزینه در شبکه عصبی تابع هزینه در یادگیری عمیق تابع هزینه در یادگیری ماشین دوره بینایی ماشین پایان نامه یادگیری عمیق شبکه عصبی چیست یادگیری عمیق چیست آموزش شبکه عصبی آموزش دیپ لرنینگ دوره یادگیری عمیق دوره دیپ لرنینگ آموزش شبکه عصبی به فارسی آموزش یادگیری عمیق ایرانی آموزش یادگیری عمیق به فارسی آموزش شبکه عصبی CNN فارسی آموزش شبکه عصبی lstm فارسی آموزش lstm فارسی آموزش یادگیری عمیق فارسی آموزش شبکه عصبی فارسی آموزش sphinx آموزش اسفینکس به زبان فارسی آموزش sphinx به زبان فارسی پیکربندی لاگر پایچارم اسفینکس لاگ رکورد نوشتن داکیومنتیشن در پایتون نوشتن اسناد پایتون خطاهای رایج در پایتون لاگ گیری در پایتون کتابخانه logging در پایتون کتابخانه logging روش nesterov روش بهینه سازی نسترو آموزش deep learning آموزش شبکه عصبی به زبان فارسی آموزش یادگیری عمیق به زبان فارسی آموزش یادگیری عمیق کانولوشن احتمال تابع پنالتی نسترو یادگیری ماشین لرنینگ ریت شرط ولف گرادیان نزولی دادگان آموزش دیتاست تابع هزینه پردازش زبانهای طبیعی بینایی ماشین اتو انکودر هوش مصنوعی آدام آدام دابلیو تابع فعالیت استقرا یادگیری تحت نظارت بهینه سازی شبکه کانولوشنی شبکه بازگشتی شبکه عصبی یادگیری ژرف یادگیری عمیق