SEO đã chết? Đây là câu hỏi cần phải định nghĩa lại. Thực ra, SEO truyền thống hay SEO dựa trên mục tiêu thứ hạng từ khóa đã “không còn phù hợp nữa”, nhưng chẳng ai nhận ra. Kết quả là, nhiều đội ngũ tiếp thị đã đưa ra những quyết định kém hiệu quả, và những người ra quyết định dần mất niềm tin vào SEO như một kênh tiếp thị đáng đầu tư. Cứ nhìn vào những phản ứng gần đây của mọi người về sự sụt giảm lưu lượng truy cập của thì biết: “SEO đã chết rồi”.
Google áp dụng JavaScript để thu thập thông tin
Kể từ ngày 20/1, Google yêu cầu sử dụng JavaScript cho Tìm kiếm, khiến việc theo dõi thứ hạng trở nên tốn kém hơn. Đây là động thái mới nhất trong cuộc chiến dai dẳng giữa các SEO và Google. Các công cụ theo dõi thứ hạng (Semrush, Ahrefs, SEOmonitor...) đã phải lách luật để hoạt động. Google chấp nhận chúng nhưng chính thức không cho phép.
Giờ đây, khi JavaScript trở thành một yêu cầu bắt buộc, việc theo dõi thứ hạng cần nhiều RAM hơn, làm tăng chi phí cho mỗi điểm dữ liệu. Kết quả là chi phí SEO ngày càng tăng.
Tuy nhiên, việc theo dõi thứ hạng đã mất giá trị từ lâu trước khi Google chuyển sang thu thập dữ liệu bằng JavaScript. Việc tập trung vào chỉ số “thứ hạng từ khóa” hay “từ khóa SEO” đã không còn phù hợp.

Khi tất cả các yếu tố trong SERP (Search Engine Results Page – Trang kết quả tìm kiếm) và dữ liệu không thể đem lại việc ước tính Organic Traffic mà chúng ta nhận được, thật khó để dự đoán tác động và đo lường thành công chỉ dựa trên thứ hạng từ khóa.
- Vào năm 2013, Google đã ngừng chia sẻ thông tin giới thiệu từ khóa. Cách duy nhất để hiểu người dùng đã tìm kiếm gì để truy cập trang web của bạn vẫn là Google Search Console.
- Năm 2014, Google bắt đầu hiển thị Featured Snippets, tức là các câu trả lời trực tiếp ở đầu kết quả tìm kiếm, tạo ra nhiều tình huống “người chiến thắng sẽ được tất cả”. Các tính năng SERP tiếp theo như “Mọi người cũng hỏi” hoặc video carousel đã theo sau và leo lên thứ hạng cao hơn. Ngày nay, hơn 30 Tính năng SERP đang tranh giành sự chú ý với các kết quả tìm kiếm truyền thống, nên rất khó để dự đoán số lượt nhấp bạn có thể nhận được vì có quá nhiều cách kết hợp Tính năng SERP.
- Từ năm ngoái, Google đã hiển thị quảng cáo giữa các kết quả tự nhiên, phá vỡ sự phân tách truyền thống giữa kết quả tự nhiên và kết quả trả phí.
- Và dĩ nhiên, năm ngoái, Google đã ra mắt AI Overviews. Các câu trả lời AI hiện đã có mặt tại hơn 100 quốc gia và cung cấp những câu trả lời chuyên sâu. Kết quả là, việc nhấp vào kết quả tìm kiếm giờ đây trở nên thừa thãi trong một số trường hợp.
Dữ liệu Google chia sẻ về những xu hướng được đề cập này gần như là... không có để có thể phân tích. AI Overviews hoặc Tính năng SERP không được bao gồm trong Google Search Console. Chưa kể đến việc Google lọc ra 50% dữ liệu truy vấn vì “lý do riêng tư” (Ahrefs đã xem xét 150.000 trang web và phát hiện ra rằng khoảng 50% từ khóa và lượt nhấp chuột bị ẩn).
Một mặt, một trang web có thể xếp hạng cho hàng ngàn từ khóa, miễn là các từ khóa đó thể hiện cùng một mục đích và trang web trả lời tốt tất cả các câu hỏi có ý nghĩa liên quan. Điều này đã đúng trong nhiều năm nay.
Mặt khác, ngày càng nhiều từ khóa không mang lại lưu lượng truy cập vì tất cả các lượt nhấp đều chuyển đến một Tính năng SERP giúp người dùng tiếp tục tìm kiếm, hoặc không cần nhấp chuột – người tìm kiếm sẽ nhận được câu trả lời trong kết quả tìm kiếm.

Vài tháng trước, tôi đã viết nội dung có từ khóa “hình nền điện thoại” và được xếp hạng với vị trí số 1. Dù đã dự đoán được trước nhưng tôi vẫn cần phải test. Và rồi tôi gần như không nhận được một cú nhấp chuột nào cho từ khóa đó.
Hơn 47K người tìm kiếm từ khóa “hình nền điện thoại” nhưng chỉ 171 lượt nhấp vào kết quả tìm kiếm. Nhân tiện, Google Analytics chỉ hiển thị dưới 100 lượt nhấp chuột từ tìm kiếm tự nhiên trong 3 tháng qua. Vậy, chuyện gì đang xảy ra vậy? Con số dưới 100 lượt nhấp chuột thực tế của tôi không được báo cáo trong Google Search Console (có lẽ là do quyền riêng tư chăng?), nhưng phần lớn người tìm kiếm có thể nhấp vào một trong các gợi ý “Mọi người cũng hỏi” hiển thị ngay bên dưới kết quả tìm kiếm của tôi.
Về cơ bản thì giá trị của từ khóa và thứ hạng đã giảm mạnh. Phản ứng của chúng ta trước vấn đề này có thể đi theo hai chiều:
- Thứ nhất, mặc dù mục tiêu bao trùm vẫn là xếp hạng cao, nhưng cần nhắm vào yếu tố chiếm “spotlight” nhiều nhất – video carousel, AI answers… hoặc AI Overviews. Trong một số trường hợp, điều này có nghĩa là mở rộng “SEO” sang các nền tảng khác như YouTube.
- Thứ hai, chúng ta cần xem xét dữ liệu tổng hợp.
Sử dụng Aggregate Traffic thay thế Rank Tracking
“Aggregate Traffic” (tổng hợp lưu lượng) đơn giản là thay vì nhìn vào lưu lượng từ từng từ khóa riêng lẻ, bạn gom tất cả lượt truy cập Organic của một trang (hoặc toàn bộ miền) lại với nhau thành con số tổng.

Cụ thể:
- Trước đây, bạn theo dõi 100-200 từ khóa, xem từng từ một đưa bao nhiêu traffic, rồi cộng lại hoặc so sánh từng vị trí Rank.
- Bây giờ, với Aggregate Traffic, bạn không quan tâm trang đang Rank cho bao nhiêu từ khóa hay thứ hạng từng từ, mà chỉ quan tâm “trang A” (hoặc “domain X”) tổng cộng có bao nhiêu Organic Traffic – từ mọi từ khóa, mọi SERP Feature, AI answers… đổ về.
Tại sao tôi khuyến khích hướng đi này?
- Thực tế hơn: Một trang có thể Rank cho hàng nghìn từ khóa, đo đếm từng từ sẽ rất rối và không phản ánh đúng lưu lượng thực tế.
- Đơn giản hóa: Bạn chỉ cần mở Google Analytics hoặc Search Console, xem tổng organic sessions cho trang hoặc site, rồi theo dõi xu hướng tăng/giảm.
- Phù hợp với AI & SERP Feature: Khi người dùng được trả lời ngay trên kết quả (zero‑click) hay click vào “People Also Asked”, video carousel… những lượt đó vẫn được tính vào tổng Traffic trang, nhưng không hiện cụ thể bên cạnh từng từ khóa.
Chúng ta vẫn đang vận hành theo mô hình SEO cũ, theo đó chúng ta theo dõi danh sách từ khóa để đo lường hiệu quả và đặt ra mục tiêu. Nhưng liệu điều đó có hợp lý không khi một trang có thể xếp hạng cho hàng loạt từ khóa khác nhau? Chưa kể, cách người dùng nhận kết quả từ SERP hay từ AI Overviews giờ đây cũng đang thay đổi nhanh chóng?
Từ khóa không có tương lai trong Search. Tương lai là ý định (“intent”), và LLM (mô hình ngôn ngữ lớn) hiểu “intent” tốt hơn.
Vì vậy, đây là gợi ý của tôi:
Thay vì tập trung vào từ khóa, chúng ta nên tập trung vào lưu lượng truy cập tự nhiên được tổng hợp ở cấp độ trang hoặc tên miền.
Để theo dõi hiệu quả hoạt động của một tên miền hoặc trang, chúng ta vẫn có thể xem xét các từ khóa, hướng lưu lượng truy cập tự nhiên cho biết hiệu quả hoạt động của trang hay tên miền đó tốt hay không.
Một vấn đề lớn tôi gặp phải với từ khóa là khối lượng tìm kiếm có nhiều sai sót và không phản ánh đúng thực tế. Từ khóa “hình nền điện thoại” được báo cáo có khối lượng tìm kiếm từ 100 ngàn đến 1 triệu lượt mỗi tháng trên các phân tích từ khóa, nhưng thực tế lại không mang lại bất kỳ lượt nhấp chuột nào.
Để biết nên tạo trang nào mà không cần nghiên cứu từ khóa, hãy trao đổi với khách hàng và phân tích những chủ đề và câu hỏi mà họ quan tâm. Phân tích các nền tảng như Reddit và YouTube về mức độ tương tác và phân tích ngược các chủ đề nào hiệu quả. Từ đây, chúng ta có thể – và có lẽ sẽ phải – sử dụng dữ liệu tìm kiếm trả phí để cung cấp thông tin cho SEO vì các dữ liệu này phản ánh rõ hơn các chủ đề với cách Google hiển thị quảng cáo (Performance Max – PMAX) cho người dùng tìm kiếm, sát với ý định thực tế hơn.
Để dự đoán lưu lượng truy cập, hãy xem xét các tên miền hoặc trang đã hiển thị cho các chủ đề chúng ta quan tâm, nhưng không phải ở cấp độ từ khóa. Dữ liệu luồng nhấp chuột phản ánh cách người dùng duyệt web tốt hơn nhiều vì nó không dự đoán lưu lượng truy cập tiềm năng dựa trên vị trí từ khóa.
Từ khóa vẫn có tác dụng (một phần nào đó) trong việc phân tích khối lượng tìm kiếm theo lịch sử để dự đoán xem một chủ đề đang phát triển hay thu hẹp, nhưng tôi khuyên bạn chỉ nên sử dụng một lượng lớn từ khóa.
Một lợi ích to lớn của phương pháp tổng hợp lưu lượng truy cập như đã nói trên là nó chuyển đổi trong bối cảnh của LLM, vì khi sử dụng, chúng không yêu cầu chúng ta truy vấn, nhưng chúng ta có thể theo dõi lưu lượng truy cập giới thiệu ở cấp độ tên miền và trang. ChatGPT thậm chí còn thêm tham số URL (utm_source=chatgpt.com) vào các lượt nhấp chuột đi, giúp việc theo dõi dễ dàng hơn.
Lý do thực sự khiến Google áp dụng thu thập dữ liệu JavaScript
Lý do thực sự khiến Google áp dụng thu thập dữ liệu JavaScript không phải là để gây bất lợi cho SEO mà là để cạnh tranh với các đối thủ AI thế hệ mới. ChatGPT và Perplexity đang giành được thị phần đáng kể. ChatGPT đã vượt qua lưu lượng truy cập của Bing và Gemini của Google. Perplexity cũng đang trên đà đạt được điều đó.
![]() |
ChatGPT đã vượt qua lưu lượng truy cập của Bing trong vòng 3 tháng kể từ khi ra mắt. Nguồn: Similarweb |
Tuy nhiên, các trình thu thập dữ liệu LLM không thể thực thi JavaScript, nghĩa là giờ đây, chúng không còn có thể thu thập dữ liệu kết quả tìm kiếm của Google để làm cơ sở cho câu trả lời của mình nữa. (Bạn cần đảm bảo rằng nội dung của bạn có thể truy cập được mà không cần JavaScript. Nếu không, LLM sẽ không thể thu thập thông tin và bạn không thể xuất hiện trong câu trả lời của họ).
Chất lượng của một số LLM có thể giảm do Google áp dụng JavaScript, nhưng chỉ là tạm thời. LLM vẫn có thể lấy dữ liệu SERP theo những cách khác. Tuy nhiên, hậu quả tiềm ẩn đầu tiên từ quyết định của Google là các nhà phát triển LLM sẽ tự xây dựng mô hình hoặc chỉ mục web để đánh giá câu trả lời và trở nên độc lập với các công cụ tìm kiếm. Hậu quả thứ hai là việc SEO tốt để xuất hiện trong LLM không còn đủ nữa. Chúng ta sẽ phải thực hiện kỹ thuật đảo ngược kết quả LLM như đã làm với Google.
Nếu SEO là một trò chơi, thì chiến thắng trong SEO hiện nay đòi hỏi phải điều chỉnh dựa trên diễn biến (ý định) của trò chơi thay vì đếm bài (từ khóa).
Tương lai của tìm kiếm không phải là “từ khóa” mà là “ý định”.
Bài viết được lược dịch từ bài blog “Death of the keyword” của tác giả Kevin Indig, bổ sung một số kinh nghiệm của người dịch.
Nguồn: Brandsvietnam