DSA Series #1: Big O notation
Big O notation là một khái niệm quan trọng trong khoa học máy tính nói chung và cấu trúc dữ liệu, thuật toán nói riêng. “Big O notation” là một biểu thức toán học, biểu diễn “độ phức tạp” của một thuật toán. Nó mô tả mối liên hệ giữa input (đầu vào) và thời gian chạy, hoặc bộ nhớ mà chương trình sử dụng. Tuy nhiên, khi đo độ hiệu quả (từ việc đánh giá độ phức tạp) của thuật toán, ta thường quan tâm đến thời gian chạy nhiều hơn, do máy tính ngày nay không bị giới hạn bởi bộ nhớ do sự phát triển của ngành....