Hơn 150 bài hướng dẫn về máy học, NLP và Python tốt nhất mà tôi đã tìm thấy

Theo nhu cầu phổ biến, tôi đã cập nhật bài viết này với các hướng dẫn mới nhất từ ​​12 tháng qua. Kiểm tra nó ở đây

Bàn Einstein Einstein vài giờ sau khi chết. Nguồn: Tạp chí LIFE

Trong khi máy học có một lịch sử phong phú có từ năm 1959, lĩnh vực này đang phát triển với một tốc độ chưa từng thấy. Trong một bài viết gần đây, tôi đã thảo luận về lý do tại sao lĩnh vực trí tuệ nhân tạo rộng lớn hơn đang bùng nổ và có thể sẽ đến một lúc nào đó. Những người quan tâm đến việc học ML có thể thấy khó khăn khi bắt đầu.

Khi tôi chuẩn bị bắt đầu bằng tiến sĩ. Chương trình vào mùa thu, tôi đã tìm kiếm trên web các tài nguyên tốt trên tất cả các khía cạnh của học máy và NLP. Thông thường, tôi sẽ tìm thấy một hướng dẫn hoặc video thú vị, và điều đó dẫn đến ba hoặc bốn hướng dẫn hoặc video khác, và trước khi tôi biết, tôi có 20 tab tài liệu mới tôi cần phải trải qua. (Một lưu ý phụ, Tab Bundler rất hữu ích để giữ ngăn nắp.)

Sau khi tìm thấy hơn 25 trang cheat liên quan đến ML, tôi đã tạo một bài đăng liên kết đến tất cả những bài hay.

Để giúp những người khác đang trải qua quá trình khám phá tương tự, tôi đã đưa ra một danh sách các nội dung hướng dẫn tốt nhất mà tôi đã tìm thấy cho đến nay. Nó không có nghĩa là một danh sách đầy đủ của mỗi hướng dẫn liên quan đến ML trên web - điều đó sẽ quá sức và trùng lặp. Thêm vào đó, có một loạt các nội dung tầm thường ngoài kia. Mục tiêu của tôi là liên kết đến các hướng dẫn tốt nhất mà tôi tìm thấy trên các chủ đề quan trọng trong học máy và NLP.

Theo hướng dẫn, tôi đã đề cập đến nội dung giới thiệu đang có ý định dạy một khái niệm ngắn gọn. Tôi đã tránh bao gồm các chương sách, có phạm vi bảo hiểm rộng hơn và các tài liệu nghiên cứu, thường nói chung là donith làm tốt công việc giảng dạy các khái niệm. Tại sao không chỉ mua một cuốn sách? Hướng dẫn rất hữu ích khi bạn đang cố gắng học một chủ đề thích hợp cụ thể hoặc muốn có những quan điểm khác nhau.

Tôi đã chia bài này thành bốn phần: Học máy, NLP, Python và Toán. Iithve bao gồm một mẫu các chủ đề trong mỗi phần, nhưng với sự rộng lớn của tài liệu, tôi có thể bao gồm tất cả các chủ đề có thể.

Đối với các bài đăng trong tương lai, tôi có thể tạo một danh sách tương tự các sách, video trực tuyến và mã repos khi Iápm biên soạn một bộ sưu tập ngày càng tăng của các tài nguyên đó.

Nếu có những hướng dẫn tốt mà bạn biết rằng tôi thiếu, xin vui lòng cho tôi biết! Tôi đã cố gắng giới hạn mỗi chủ đề trong năm hoặc sáu hướng dẫn vì vượt quá điều đó sẽ lặp đi lặp lại. Mỗi liên kết nên có tài liệu khác với các liên kết khác hoặc trình bày thông tin theo một cách khác (ví dụ: mã so với trang chiếu so với dạng dài) hoặc từ một quan điểm khác nhau.

Học máy

Học máy là niềm vui! (trung bình.com /@ageitgey)

Khóa học về sự cố máy học: Phần I, Phần II, Phần III (Học máy tại Berkeley)

Giới thiệu về Lý thuyết học máy và các ứng dụng của nó: Hướng dẫn trực quan với các ví dụ (toptal.com)

Hướng dẫn nhẹ nhàng về học máy (monkeylearn.com)

Tôi nên sử dụng thuật toán học máy nào? (sas.com)

Chức năng kích hoạt và mất

Tế bào thần kinh Sigmoid (neuralnetworksanddeeplearning.com)

Vai trò của chức năng kích hoạt trong mạng thần kinh là gì? (quora.com)

Danh sách đầy đủ các chức năng kích hoạt trong các mạng thần kinh với ưu / nhược điểm (stats.stackexchange.com)

Các chức năng kích hoạt và các loại của nó - Cái nào tốt hơn? (trung bình.com)

Tạo cảm giác mất logarit (ex Groomic.biz)

Chức năng mất (Stanford CS231n)

Hàm mất L1 so với L2 (rishy.github.io)

Hàm chi phí entropy chéo (neuralnetworksanddeeplearning.com)

Xu hướng

Vai trò của Xu hướng trong Mạng nơ-ron (stackoverflow.com)

Các nút thiên vị trong mạng nơ-ron (makeyourownneuralnetwork.blogspot.com)

Sự thiên vị trong mạng lưới thần kinh nhân tạo là gì? (quora.com)

Perceptionron

Perceptionrons (neuralnetworksanddeeplearning.com)

Nhận thức (Natureofcode.com)

Mạng nơ-ron một lớp (Perceptrons) (dcu.ie)

Từ Perceptrons đến Deep Networks (toptal.com)

hồi quy

Giới thiệu về phân tích hồi quy tuyến tính (duke.edu)

Hồi quy tuyến tính (ufldl.stanford.edu)

Hồi quy tuyến tính (readthedocs.io)

Hồi quy logistic (readthedocs.io)

Hướng dẫn hồi quy tuyến tính đơn giản cho học máy (machinelearningmastery.com)

Hướng dẫn hồi quy logistic cho máy học (machinelearningmastery.com)

Hồi quy Softmax (ufldl.stanford.edu)

Xuống dốc

Học với độ dốc gốc (neuralnetworksanddeeplearning.com)

Giảm dần độ dốc (iamtrask.github.io)

Cách hiểu thuật toán Gradient Descent (kdnuggets.com)

Tổng quan về các thuật toán tối ưu hóa độ dốc (sebastianruder.com)

Tối ưu hóa: Stochastic Gradient Descent (Stanford CS231n)

Học tập sáng tạo

Thuật toán học tập sáng tạo (Stanford CS229)

Một lời giải thích thực tế về bộ phân loại Naive Bayes (monkeylearn.com)

Hỗ trợ máy Vector

Giới thiệu về Support Vector Machines (SVM) (monkeylearn.com)

Hỗ trợ máy Vector (Stanford CS229)

Phân loại tuyến tính: Máy Vector hỗ trợ, Softmax (Stanford 231n)

Truyền bá

Có, bạn nên hiểu backprop (Medium.com/@karpathy)

Bạn có thể đưa ra một lời giải thích trực quan cho thuật toán lan truyền ngược cho các mạng thần kinh? (github.com/rasbt)

Làm thế nào thuật toán backpropagation hoạt động (neuralnetworksanddeeplearning.com)

Backpropagation qua thời gian và biến mất sinh viên (wildml.com)

Giới thiệu nhẹ nhàng về Backpropagation qua thời gian (machinelearningmastery.com)

Backpropagation, Trực giác (Stanford CS231n)

Học kĩ càng

Học sâu trong một Nutshell (nikhilbuduma.com)

Hướng dẫn về Deep Learning (Quốc V. Lê)

Học sâu là gì? (machinelearningmastery.com)

Điều gì khác biệt giữa sự khác biệt giữa trí tuệ nhân tạo, học máy và học sâu? (nvidia.com)

Tối ưu hóa và giảm kích thước

Bảy kỹ thuật để giảm kích thước dữ liệu (knime.org)

Phân tích thành phần chính (Stanford CS229)

Bỏ học: Một cách đơn giản để cải thiện mạng lưới thần kinh (Hinton @ NIPS 2012)

Cách đào tạo Mạng lưới thần kinh sâu của bạn (rishy.github.io)

Bộ nhớ ngắn hạn (LSTM)

Giới thiệu nhẹ nhàng về các mạng bộ nhớ ngắn hạn của các chuyên gia (machinelearningmastery.com)

Hiểu về LSTM Networks (colah.github.io)

Khám phá các LSTM (echen.me)

Bất cứ ai cũng có thể học cách mã hóa LSTM-RNN bằng Python (iamtrask.github.io)

Mạng thần kinh chuyển đổi (CNNs)

Giới thiệu các mạng chập (neuralnetworksanddeeplearning.com)

Mạng lưới thần kinh học tập sâu và kết hợp (Medium.com/@ageitgey)

Conv Nets: Một phối cảnh mô đun (colah.github.io)

Hiểu về Convolutions (colah.github.io)

Mạng lưới thần kinh tái phát (RNNs)

Hướng dẫn Mạng thần kinh định kỳ (wildml.com)

Chú ý và Mạng thần kinh tái phát tăng cường (distill.pub)

Hiệu quả không hợp lý của các mạng thần kinh tái phát (karpathy.github.io)

Lặn sâu vào Mạng lưới thần kinh tái phát (nikhilbuduma.com)

Học tăng cường

Hướng dẫn đơn giản cho người mới bắt đầu học tập để củng cố việc học và thực hiện nó (analyticsvidhya.com)

Hướng dẫn học tăng cường (mst.edu)

Học tăng cường học tập (wildml.com)

Học tập củng cố sâu: Pông từ Pixels (karpathy.github.io)

Mạng đối thủ tạo (GAN)

Điều gì một mạng lưới đối thủ sáng tạo? (nvidia.com)

Lạm dụng các mạng đối thủ tạo để tạo nghệ thuật pixel 8 bit (Medium.com/@ageitgey)

Giới thiệu về Mạng đối thủ tạo (có mã trong TensorFlow) (aylien.com)

Mạng đối thủ sáng tạo cho người mới bắt đầu (oreilly.com)

Học đa tác vụ

Tổng quan về Học tập đa tác vụ trong Mạng lưới thần kinh sâu (sebastianruder.com)

NLP

Sơ lược về các mô hình mạng thần kinh để xử lý ngôn ngữ tự nhiên (Yoav Goldberg)

Hướng dẫn dứt khoát về xử lý ngôn ngữ tự nhiên (monkeylearn.com)

Giới thiệu về Xử lý ngôn ngữ tự nhiên (Thuật toán.com)

Hướng dẫn xử lý ngôn ngữ tự nhiên (vikparuchuri.com)

Xử lý ngôn ngữ tự nhiên (gần như) từ Scratch (arxiv.org)

Học sâu và NLP

Deep Learning áp dụng cho NLP (arxiv.org)

Học sâu cho NLP (không có phép thuật) (Richard Socher)

Hiểu về mạng nơ ron kết hợp cho NLP (wildml.com)

Học sâu, NLP và Đại diện (colah.github.io)

Nhúng, mã hóa, tham dự, dự đoán: Công thức học sâu mới cho các mô hình NLP hiện đại (blast.ai)

Hiểu ngôn ngữ tự nhiên với mạng lưới thần kinh sâu bằng cách sử dụng đèn pin (nvidia.com)

Học sâu cho NLP với Pytorch (pytorich.org)

Từ vectơ

Túi từ ngữ Đáp ứng Túi bỏng ngô (kaggle.com)

Trên các từ nhúng Phần I, Phần II, Phần III (sebastianruder.com)

Sức mạnh đáng kinh ngạc của vectơ từ (acolyer.org)

Giải thích về tham số học tập của word2vec (arxiv.org)

Hướng dẫn Word2Vec - Mô hình Skip-Gram, Lấy mẫu âm tính (mccormickml.com)

Bộ mã hóa-giải mã

Chú ý và ghi nhớ trong Deep Learning và NLP (wildml.com)

Mô hình trình tự trình tự (tenorflow.org)

Trình tự học liên tục với mạng nơ ron (NIPS 2014)

Học máy là niềm vui Phần 5: Dịch ngôn ngữ với Deep Learning và Magic of Sequences (Medium.com/@ageitgey)

Cách sử dụng LSTM Bộ giải mã mã hóa để lặp lại chuỗi số nguyên ngẫu nhiên (machinelearningmastery.com)

tf-seq2seq (google.github.io)

Con trăn

7 bước để làm chủ máy học với Python (kdnuggets.com)

Một ví dụ máy tính xách tay học tập (nbviewer.jupyter.org)

Ví dụ

Cách triển khai thuật toán Perceptron từ đầu trong Python (machinelearningmastery.com)

Triển khai Mạng thần kinh từ đầu trong Python (wildml.com)

Mạng thần kinh trong 11 dòng Python (iamtrask.github.io)

Thực hiện thuật toán hàng xóm k-gần nhất của riêng bạn bằng Python (kdnuggets.com)

Trình diễn bộ nhớ với mạng bộ nhớ ngắn hạn dài bằng Python (machinelearningmastery.com)

Cách học cách lặp lại số nguyên ngẫu nhiên với mạng nơ ron ngắn hạn bộ nhớ dài hạn (machinelearningmastery.com)

Cách học cách thêm số với seq2seq Mạng thần kinh tái phát (machinelearningmastery.com)

Scipy và numpy

Ghi chú bài giảng Scipy (scipy-lectures.org)

Hướng dẫn sử dụng Python Numpy (Stanford CS231n)

Giới thiệu về Numpy và Scipy (UCSB CHE210D)

Một khóa học sự cố về Python cho các nhà khoa học (nbviewer.jupyter.org)

học hỏi

Chỉ số hướng dẫn tìm hiểu PyCon scikit (nbviewer.jupyter.org)

thuật toán phân loại scikit-learn (github.com/mmmayo13)

Hướng dẫn học scikit (scikit-learn.org)

Hướng dẫn rút gọn scikit-learn (github.com/mmmayo13)

Dòng chảy

Hướng dẫn kéo căng (tenorflow.org)

Giới thiệu về TensorFlow - CPU vs GPU (Medium.com/@erikhallstrm)

TensorFlow: Một mồi (metaflow.fr)

RNNs trong Tensorflow (wildml.com)

Triển khai CNN để phân loại văn bản trong TensorFlow (wildml.com)

Cách chạy Tóm tắt văn bản với TensorFlow (surmenok.com)

Kim tự tháp

Hướng dẫn PyTorch (pytorch.org)

Giới thiệu nhẹ nhàng đến PyTorch (gaurav.im)

Hướng dẫn: Học sâu trong PyTorch (iamtrask.github.io)

Ví dụ về PyTorch (github.com/jcjohnson)

Hướng dẫn PyTorch (github.com/MorvanZhou)

Hướng dẫn PyTorch cho các nhà nghiên cứu Deep Learning (github.com/yunjey)

môn Toán

Toán học cho máy học (ucsc.edu)

Toán học cho máy học (UMIACS CMSC422)

Đại số tuyến tính

Hướng dẫn trực quan về Đại số tuyến tính (betterexplained.com)

Một trực giác lập trình viên cho phép nhân ma trận (betterexplained.com)

Hiểu về sản phẩm chéo (betterexplained.com)

Hiểu về sản phẩm Dot (betterexplained.com)

Đại số tuyến tính cho học máy (U. of Buffalo CSE574)

Bảng điểm đại số tuyến tính cho việc học sâu (Medium.com)

Đánh giá và tham khảo đại số tuyến tính (Stanford CS229)

Xác suất

Hiểu định lý Bayes với tỷ lệ (betterexplained.com)

Đánh giá về lý thuyết xác suất (Stanford CS229)

Đánh giá lý thuyết xác suất cho học máy (Stanford CS229)

Lý thuyết xác suất (U. of Buffalo CSE574)

Lý thuyết xác suất cho học máy (U. of Toronto CSC411)

Giải tích

Làm thế nào để hiểu các công cụ phái sinh: Quy tắc số nguyên, số mũ và logarit (betterexplained.com)

Làm thế nào để hiểu các công cụ phái sinh: Các quy tắc về sản phẩm, sức mạnh và chuỗi (betterexplained.com)

Tính toán véc tơ: Tìm hiểu về Gradient (betterexplained.com)

Phép tính vi phân (Stanford CS224n)

Tổng quan về tính toán (readthedocs.io)