- Recent add item
- ×
Tổng số phụ: 100.000₫
Trong bài viết này, chúng ta sẽ cùng nhau khám phá cách xây dựng một chatbot đa tác tử (multi-agent chatbot) sử dụng Typebot và n8n. Chatbot này không chỉ có khả năng trò chuyện mà còn thực hiện các hành động cụ thể, được định nghĩa trước.
Nếu bạn chưa từng nghe về Typebot, đây là một phần mềm mã nguồn mở cho phép bạn tạo ra các chatbot tương tác. Bạn có thể sử dụng phiên bản đám mây hoặc tự lưu trữ phần mềm trên máy chủ của mình mà không gặp bất kỳ giới hạn nào.
Vậy tại sao lại sử dụng Typebot khi n8n đã có giao diện chatbot rất tốt? N8n rất mạnh mẽ trong việc xây dựng chatbot LLM (Large Language Model), có nghĩa là đôi khi nó sẽ đưa ra các phản hồi không rõ ràng. Nhưng đôi khi bạn cũng muốn triển khai các biểu mẫu có cấu trúc chặt chẽ vào chatbot của mình, ví dụ như đăng ký nhận bản tin hoặc biểu mẫu đặt hàng. Trong trường hợp đó, bạn có thể sử dụng Typebot để thực hiện logic chặt chẽ cho chatbot của mình. Và hôm nay, chúng ta sẽ kết nối hai thế giới này lại với nhau.
Trên hết, chúng ta sẽ thêm logic đa tác tử. Về cơ bản, người dùng có thể trò chuyện với nhiều tác tử và tất cả các tác tử này sẽ chia sẻ cùng một bộ nhớ. Để hiểu rõ hơn, hãy cùng xem cách nó hoạt động.
Ví dụ, chatbot này có nhiệm vụ trả lời các câu hỏi về tài liệu của Typebot và n8n. Bạn có thể hỏi về các chức năng cụ thể của hai ứng dụng này và bot sẽ trả lời bằng các câu trả lời rõ ràng trực tiếp từ tài liệu trên GitHub.
Bạn có thể chọn giữa tác tử Typebot và n8n. Ví dụ, bạn có thể hỏi tác tử Typebot câu hỏi “làm thế nào để sử dụng biến” trong Typebot. Điều này kết nối với n8n, và tác tử trong n8n sẽ tìm kiếm phần cụ thể trong tài liệu và trả lời bằng câu trả lời rõ ràng.
Nếu người dùng muốn đăng ký nhận bản tin, họ có thể nhập “Tôi muốn đăng ký nhận bản tin”. Bot sẽ yêu cầu người dùng nhập địa chỉ email. Sau khi nhập email và tên, người dùng sẽ nhận được thông báo xác nhận và có thể tiếp tục cuộc trò chuyện.
Nếu bạn muốn chuyển sang tác tử n8n, bạn có thể nhập “Tôi muốn thay đổi tác tử”. Bot sẽ chào tạm biệt và hỏi bạn muốn sử dụng tác tử nào. Để chứng minh cách chia sẻ bộ nhớ hoạt động, bạn có thể hỏi tác tử “Câu hỏi cuối cùng của tôi là gì?”. Bot sẽ trả lời rằng câu hỏi cuối cùng là về việc đăng ký nhận bản tin.
Hãy bắt đầu với quy trình chat flow trong Typebot và xem từng bước hoạt động.
Khi bắt đầu cuộc trò chuyện, bot sẽ đặt ID phiên (session ID). ID phiên là một chuỗi ngẫu nhiên được lưu trữ trong biến session ID. Nó có vai trò kết nối cuộc trò chuyện với các khối cụ thể trong bộ nhớ của tác tử.
Sau khi nhấp vào nút “test” và cuộc trò chuyện bắt đầu, bot sẽ đặt ID phiên ngẫu nhiên này trong nền. Tiếp theo, bạn sẽ thấy khối “chọn danh mục” (select category) với hai tùy chọn: “Typebot” và “n8n”. Người dùng có thể chọn giữa hai tác tử này.
Sau đó, bạn sẽ thấy khối “đặt danh mục” (set category), đây là một script đơn giản có nhiệm vụ chuyển đổi chuỗi từ khối trước đó. Nếu có một ký tự viết hoa và một biểu tượng cảm xúc, script này sẽ chuyển đổi nó thành chữ thường và loại bỏ biểu tượng cảm xúc. Điều này rất quan trọng cho các bước tiếp theo trong quy trình n8n.
Tiếp theo là tin nhắn ban đầu. Chatbot sẽ hỏi “Tôi có thể giúp gì cho bạn hôm nay?” và người dùng có thể nhập câu hỏi. Câu hỏi này sau đó được chuyển cùng với các dữ liệu khác đến quy trình n8n. Hai biến được đặt ở đây: “message” và “action”.
Khối tiếp theo là khối điều kiện (conditional block), nơi hành động được hướng đến một đường dẫn cụ thể trong chat flow. Ví dụ, khi bạn có hành động “thoát tác tử” (exit agent) được lưu trữ trong biến “action”, tác tử sẽ nhận ra rằng người dùng muốn thoát tác tử và sẽ chuyển đến khối “chọn danh mục”. Hoặc, nếu hành động được nhận dạng là “đăng ký nhận bản tin”, người dùng sẽ được chuyển đến khối bản tin, nơi họ được yêu cầu nhập email và tên. Sau đó, dữ liệu này cũng được chuyển đến quy trình n8n khác. Cuối cùng, người dùng được chuyển đến khối “tin nhắn ban đầu”, nơi họ được yêu cầu nhập một câu hỏi khác cho tác tử.
Đây là toàn bộ logic trong Typebot chat flow. Bây giờ, hãy xem nó trông như thế nào trong n8n.
Hãy cùng xem quy trình làm việc n8n từng bước một. Nó bắt đầu với trình kích hoạt trò chuyện (chat trigger) có một URL cụ thể. Địa chỉ này cũng được đặt trong khối “gọi tác tử” (agent call). Về cơ bản, dữ liệu từ Typebot được chuyển đến n8n thông qua yêu cầu HTTP.
Tiếp theo là khối “đặt hành động và phản ứng” (set actions and reactions) rất quan trọng. Ở đây, bạn có hai biến xác định cách các tác tử nên cư xử đối với các hành động và các hành động đó thực sự là gì. Hai hành động được xác định: “thoát tác tử” khi người dùng muốn thay đổi tác tử đang chạy cuộc trò chuyện và “gửi địa chỉ email” để đăng ký nhận bản tin. Trong biến “reactions”, bạn có thông tin về cách các tác tử nên phản ứng với các hành động đó. Ví dụ, đối với hành động “thoát tác tử”, các tác tử nên lịch sự nói “tạm biệt” và gửi một biểu tượng cảm xúc thân thiện. Tương tự, đối với việc đăng ký nhận bản tin, họ cũng nên thông báo về việc thu thập dữ liệu để gửi địa chỉ email vào danh sách email và thêm biểu tượng cảm xúc.
Sau đó, bạn có một chuỗi đơn giản để xác định hành động. Chuỗi này có nhiệm vụ nhận ra loại hành động mà người dùng muốn thực hiện. Nếu không có hành động nào trong số các hành động bạn đã xác định phù hợp, nó sẽ chuyển giá trị “khác” (other) cho hành động. Bạn cũng có một trình phân tích cú pháp JSON đơn giản với một cấu trúc rất đơn giản.
Sau đó, bạn đặt hành động đã xác định và chuyển nó đến quy trình làm việc để sử dụng. Bạn hợp nhất đầu vào và hành động đã xác định, sau đó chuyển tất cả dữ liệu từ đầu vào, hành động và phản ứng đến nút hợp nhất (merge node) và nó được chuyển đến các tác tử.
Bạn cũng có nút chuyển đổi tác tử (switch agents node), nơi bạn có biến “category”. Điều này giống như những gì bạn có trong script run. Bạn xác định giá trị của biến category và chuyển nó đến quy trình n8n. Bạn có thể xác định loại tác tử mà người dùng muốn trò chuyện.
Sau đó, bạn chuyển đến phần chính, tác tử tài liệu (docs agent). Bạn có thể chia tách thành hai tác tử cho mục đích của hướng dẫn này. Trong một quy trình làm việc thực tế, chúng có thể chỉ là một tác tử, nhưng bạn muốn phân biệt chúng thành hai tác tử riêng biệt và chỉ cho bạn cách nó hoạt động.
Vậy làm thế nào các bot này biết tài liệu nào cần hỏi? Bạn có thể thêm danh sách đường dẫn của toàn bộ tài liệu vào cửa sổ ngữ cảnh. Khi bạn truy cập docs.n8n.io và truy cập sơ đồ trang web (sitemap), bạn có thể thấy rằng bạn có một dạng cấu trúc của toàn bộ tài liệu. Tương tự cho GitHub. Bạn có thể chuẩn bị một quy trình làm việc đơn giản, nơi bạn chuyển địa chỉ của sơ đồ trang web và cuối cùng bạn nhận được một tệp văn bản đơn giản, nơi bạn có các đường dẫn ở dạng rõ ràng. Bằng cách đó, bạn có thể để tác tử quyết định URL nào nên được truy cập để truy xuất thông tin. Và vì dạng tài liệu trong miền docs và trong GitHub về cơ bản là giống nhau, bạn có thể sử dụng nút GitHub để truy xuất thông tin từ GitHub sau một vài sửa đổi nhỏ.
Sau khi xử lý thông qua các tác tử, bạn chuyển dữ liệu đến đầu ra hợp nhất (merge output) vì theo mặc định, trình kích hoạt trò chuyện ở chế độ phản hồi (response mode) khi nút cuối cùng kết thúc. Về cơ bản, nó sẽ chuyển dữ liệu từ nút cuối cùng của quy trình làm việc.
Hãy xem cách nó hoạt động trong một ví dụ thực tế trên các lần thực thi thực tế và bạn sẽ thấy điều gì đang xảy ra trong nền. Khi bạn nhấp vào “test” trong Typebot và hỏi tác tử Typebot về các biến, ví dụ “làm thế nào để sử dụng biến?”. Trong tab “executions” trong n8n, bạn sẽ thấy quy trình làm việc kết nối Typebot đang hoạt động. Sau một vài giây, bạn sẽ nhận được thông báo rằng webhook đã được thực thi thành công và nhận được thông tin trong bảng, câu trả lời từ tác tử AI.
Khi bạn truy cập tab “executions”, bạn sẽ thấy rằng quy trình làm việc này đã được thực thi chính xác. Trong nút kích hoạt, bạn nhận được thông tin về “category”, tác tử mà người dùng đang nói chuyện, “message”, câu hỏi từ người dùng và session ID, ID được chuyển đến bộ nhớ. Bạn có khóa phiên được xác định. Sau đó, bạn có một chuỗi hành động được xác định. Vì đây là câu hỏi từ người dùng không yêu cầu hành động, bạn có đầu ra khác trong nút này. Cuối cùng, bạn chuyển đến tác tử dcos cho Typebot và bạn có thể thấy trong nhật ký rằng Typebot đã thực thi đường dẫn tệp đến các biến trình chỉnh sửa và cho tệp variables.mdx và truy xuất dữ liệu từ tệp này từ kho lưu trữ GitHub và xây dựng phản hồi có cấu trúc tốt.
Đây là cách trả lời đơn giản cho các câu hỏi hoạt động. Nhưng ví dụ, khi người dùng hỏi “tôi có thể đăng ký nhận bản tin không?”, bạn có thể truy cập tab “executions” một lần nữa. Bạn sẽ thấy rằng kết nối Typebot đang hoạt động và đang được thực thi chính xác và được yêu cầu cung cấp địa chỉ email. Trong lần dừng thực thi, bạn có thể thấy rằng tại thời điểm này trong chuỗi hành động xác định, thay vì “khác”, bạn có hành động “đăng ký nhận bản tin”. Vì vậy, các tác tử đã biết rằng người dùng muốn đăng ký nhận bản tin. Khi bạn nhập địa chỉ email và tên của mình, bạn sẽ nhận được thông tin rằng mọi thứ đã hoàn tất và bạn truy cập Baserow và bạn có thể thấy rằng điều này đã được gửi ở đây. Bạn có một webhook riêng biệt được xác định cho hành động đăng ký nhận bản tin và bạn chuyển dữ liệu đến quy trình làm việc này để chuyển nó đến Baserow và bạn đã lưu trữ nó ở đây.
Đây là cách các hành động và đa tác tử hoạt động trong kết nối Typebot-n8n. Bạn có thể sử dụng nó cho hỗ trợ khách hàng và nhiều thứ khác có tiềm năng lớn.
n8n vừa bổ sung hỗ trợ gốc cho Model Context Protocol (MCP), và điều này thật tuyệt vời! Có lẽ bạn đã xem rất nhiều video về MCP trên n8n rồi, nhưng những video này đều sử dụng một thành phần cộng đồng thay vì tích hợp chính thức do n8n cung cấp. Trước đây, tôi đã không đề cập đến node cộng đồng vì nó rất khó thiết lập và đòi hỏi phần cứng cực kỳ mạnh. Trên thực tế, phiên bản n8n tự lưu trữ của tôi liên tục bị treo do yêu cầu quá cao từ node cộng đồng này. Vì vậy, tôi không cố ý chỉ trích nhà phát triển của node đó, nhưng thật không may, tôi không thể làm cho nó hoạt động một cách đáng tin cậy. Nhưng rất may, bây giờ chúng ta đã có hỗ trợ gốc với n8n.
Tin tốt là chúng ta có thể xây dựng máy chủ MCP trực tiếp với n8n, và tất nhiên, chúng ta cũng có thể sử dụng n8n làm máy khách MCP. Trong bài viết này, tôi sẽ trình bày cả hai cách tiếp cận và thảo luận về một số hạn chế nhất định với tích hợp gốc ở thời điểm hiện tại.
Đối với tôi, tính năng thú vị nhất là khả năng tạo máy chủ MCP. Ví dụ, tôi có một thiết lập máy chủ MCP rất đơn giản, kết nối với một quy trình làm việc hiện có, có thể gửi email và đọc email, đồng thời có thể quản lý các mục trong danh sách việc cần làm của tôi.
Sau khi bạn đã thiết lập máy chủ MCP, bạn có thể tích hợp nó vào một số ứng dụng dựa trên AI hỗ trợ MCP, như Claude Desktop hoặc các trình chỉnh sửa code như Cursor. Bây giờ bạn sẽ thấy trong Claude Desktop rằng chúng ta có thể thấy sáu công cụ khả dụng. Đây là những công cụ mà tôi đã đính kèm vào máy chủ MCP của mình trong n8n, như thêm việc cần làm, tạo nội dung, tạo email, liệt kê việc cần làm, đọc email và cập nhật việc cần làm. Mỗi công cụ được liệt kê trong quy trình làm việc này. Điều này có nghĩa là Claude có quyền truy cập vào bất kỳ công cụ nào trong số đó.
Ví dụ, tôi có thể hỏi, “Những việc cần làm hiện tại của tôi là gì?” Claude sẽ nhận ra rằng chúng ta có quyền truy cập vào các công cụ này và chỉ đơn giản là xin phép tôi chạy “liệt kê việc cần làm” từ n8n. Hãy phê duyệt yêu cầu này, và bây giờ nó sẽ liệt kê tất cả các việc cần làm của tôi.
Những việc cần làm này đến từ công cụ này, được liên kết với một bảng Airtable. “Mua bánh mì” được đánh dấu là đã hoàn thành, và chúng ta có “gọi cho mẹ” và “mua thức ăn cho chó”, vẫn chưa hoàn thành. Hãy cập nhật danh sách việc cần làm của chúng ta. Hãy thêm một việc cần làm khác có tên là “rửa xe”, và đánh dấu “gọi cho mẹ” là đã hoàn thành.
Agent đang gọi công cụ “thêm việc cần làm” của chúng ta, mà chúng ta có thể phê duyệt. Và bây giờ nó đang cố gắng cập nhật việc cần làm hiện có. Hãy phê duyệt điều này. Và bây giờ Claude đang nói “Xong”. Nếu chúng ta chuyển sang bảng của mình và làm mới nó, chúng ta có thể thấy “gọi cho mẹ” đã thực sự được hoàn thành và “rửa xe” đã được thêm vào danh sách việc cần làm.
Trong quy trình làm việc của chúng ta, chúng ta cũng có quyền truy cập vào email. Vì vậy, những gì chúng ta có thể làm trong Claude là nói, “gửi email danh sách việc cần làm đến taste@taste.com”. Đầu tiên, hãy lấy danh sách việc cần làm. Claude đang hỏi chúng ta liệu nó có được phép gửi email hay không. Hãy cho phép nó làm điều đó. Và nó nói rằng nó đã tạo một bản nháp email. Chuyển sang email và vào thư mục bản nháp email của tôi, tôi có thể thấy bản nháp này chứa danh sách việc cần làm của tôi. Tất nhiên, tôi cũng có thể chỉ cần thêm một công cụ “gửi email”, và công cụ này sẽ ngay lập tức có sẵn cho tất cả các máy khách MCP này.
Để hoàn thiện, chúng ta có thể thấy các công cụ tương tự trong Cursor. Trong Cursor, chúng ta thấy “cập nhật việc cần làm”, “thêm việc cần làm”, “liệt kê việc cần làm”, “tạo email”, “đọc email” và “tạo nội dung”. Hãy thử viết một câu chuyện về con chó của tôi tên là Ruby, cưỡi một đám mây phép thuật, và tạo một bản nháp email với câu chuyện cuối cùng. Hãy gửi yêu cầu này.
Bây giờ nó đang gọi công cụ “tạo nội dung” của chúng ta. Trong khi nó đang chạy, tôi chỉ muốn chỉ ra rằng công cụ tạo nội dung là công cụ này, thực chất là một quy trình làm việc riêng biệt trong n8n. Được rồi, nó đã tạo câu chuyện. Và tất nhiên, bạn có thể mở rộng bất kỳ điều gì trong số này để xem chính xác những gì đã xảy ra. Chúng ta có thể thấy truy vấn đã được gửi đến n8n. Và trong đầu ra, chúng ta có thể thấy kết quả trả về từ n8n. Nếu tôi cho bạn thấy quy trình làm việc đó trông như thế nào, thì nó đang gọi một AI agent, sau đó tạo câu chuyện cho chúng ta và trả về nó. Điểm mấu chốt là bạn có thể đính kèm các quy trình làm việc tạo sinh như một công cụ.
Bây giờ chúng ta đã có câu chuyện, nó đang yêu cầu chúng ta tạo email. Hãy tiếp tục và phê duyệt điều này. Được rồi, nó nói rằng nó đã tạo câu chuyện và email, và làm mới bản nháp của tôi. Và đây rồi! Chúng ta đã nhận được email chứa câu chuyện đó. Điều này thật điên rồ!
Bây giờ, hãy xem xét việc thiết lập máy chủ và tích hợp nó vào Claude Desktop hoặc Cursor. Sau đó, tôi sẽ chỉ cho bạn cách sử dụng n8n làm máy khách MCP.
Để tạo máy chủ MCP, chỉ cần tạo một quy trình làm việc mới. Tôi sẽ gọi nó là “MCP server YouTube demo”. Sau đó, cho bước đầu tiên, hãy tìm kiếm MCP và thêm MCP server trigger. Nhìn vào node này, nó cung cấp cho chúng ta một URL thử nghiệm và một URL sản xuất. Chúng ta cũng có thể thiết lập xác thực. Chúng ta có thể đặt mã thông báo bearer hoặc xác thực header, hoặc đơn giản là không xác thực. Tôi sẽ xóa endpoint này vào thời điểm bạn xem video này. Hãy đổi tên đường dẫn thành “tutorial”. Chúng ta sẽ quay lại URL này sau.
Bây giờ, chúng ta có thể thêm bất kỳ công cụ nào vào MCP trigger này. Các công cụ này sẽ có sẵn cho bất kỳ ứng dụng nào đang sử dụng máy chủ MCP của chúng ta. Điều này có thể cực kỳ đơn giản. Chúng ta có thể đính kèm một cái gì đó như một công cụ tính toán. Và trước khi chúng ta thêm bất cứ điều gì khác, hãy lưu điều này. Hãy xem xét việc thêm máy chủ siêu đơn giản vào Cursor và Claude Desktop.
Để tải xuống Claude Desktop, hãy truy cập claude.ai/download và tải xuống và cài đặt Claude cho hệ điều hành của bạn. Sau đó, từ Claude, hãy vào menu trên cùng, sau đó vào “File” > “Settings”, nhấp vào “Developer”, và tại thời điểm này, bạn sẽ không thấy bất kỳ máy chủ MCP nào. Nhấp vào “Edit Config”. Điều này sẽ đưa bạn đến thư mục chứa tệp cấu hình Claude Desktop này. Bây giờ hãy mở tệp này trong trình soạn thảo văn bản hoặc trình chỉnh sửa code. Bạn có thể sử dụng Claude, hoặc bất kỳ trình soạn thảo văn bản nào bạn muốn. Bây giờ trong tệp này, hãy thêm nội dung sau. Bạn có thể sao chép tất cả nội dung này từ phần mô tả trong video này. Chỉ cần thay thế URL này bằng URL từ cấu hình server trigger của bạn. Vì vậy, trong trigger này, hãy nhấp vào “Production URL”, sao chép bất kỳ giá trị nào trong trường này và thêm nó vào tệp này. Sau đó lưu tệp này. Và cuối cùng, cũng đảm bảo kích hoạt quy trình làm việc này.
Tuyệt vời, nó đã được kích hoạt. Và bây giờ, lần tới khi bạn khởi động Claude, bạn sẽ thấy biểu tượng công cụ này hiển thị các công cụ có sẵn từ máy chủ MCP của bạn, mà hiện tại chỉ là công cụ tính toán. Bạn không còn phải thay đổi bất cứ điều gì trong tệp cấu hình khi bạn thêm các công cụ mới vào quy trình làm việc n8n của mình. Chúng sẽ tự động phản ánh trong danh sách này.
Tôi cũng muốn chỉ cho bạn cách tích hợp điều này với Cursor, một trường hợp sử dụng phổ biến khác. Và đây có lẽ là thứ mà tôi thấy mình sử dụng mọi lúc. Tải xuống và cài đặt Cursor. Và khi bạn truy cập Cursor, bạn có thể vào “File” > “Preferences” > “Cursor Settings”. Và từ đây, hãy vào “MCP”. Sau đó, nhấp vào “Add New Global MCP Server” và dán văn bản tương tự vào. Nếu chúng ta quay lại cài đặt Cursor của mình, chúng ta có thể thấy n8n hiện đã được kết nối, cũng như danh sách các công cụ có sẵn, mà hiện tại chỉ là máy tính. Nếu điều này hiển thị màu vàng hoặc đỏ cho bạn, chỉ cần nhấp vào “Refresh” và điều đó sẽ giải quyết vấn đề.
Bây giờ bạn có thể làm theo bằng Cursor hoặc Claude. Điều đó thực sự tùy thuộc vào bạn. Cá nhân tôi sẽ sử dụng Cursor cho phần còn lại của hướng dẫn này.
Trong ví dụ tôi đã trình bày ở đầu video này, chúng ta thêm quy trình làm việc tạo nội dung này. Và chúng ta sẽ tạo ra nó. Và chúng ta cũng có khả năng quản lý các việc cần làm của mình. Một cái gì đó như gửi email là rất phổ biến. Vì vậy, tôi sẽ không giải thích điều đó trong video này. Nhưng những gì chúng ta sẽ làm là tạo quy trình làm việc tạo nội dung của chúng ta, chỉ để tôi có thể cho bạn cách gọi các quy trình làm việc con. Và sau đó, chúng ta cũng sẽ học cách quản lý các việc cần làm của mình.
Để gọi các quy trình làm việc con, những gì chúng ta có thể làm là quay lại trang tổng quan của mình. Hãy tạo một quy trình làm việc mới. Và hãy gọi quy trình này là “Social Media Post Generator”. Hãy nhấp vào “Add First Step”. Và ở đây, hãy thêm “When Executed by Another Workflow”. Đối với “Input Data Mode”, hãy để nó ở “Define Using Fields Below”. Hãy thêm một trường mới. Tôi sẽ gọi trường này là “query”. Và nó có kiểu chuỗi. Điều này cũng đặt dữ liệu giả của chúng ta, chỉ để chúng ta có thể kiểm tra điều này. Tôi sẽ xóa tất cả những thứ này. Và sử dụng dấu ngoặc nhọn mở và đóng, hãy thêm thuộc tính truy vấn này với giá trị “create a Twitter expo về việc sử dụng AI agents với n8n”. Bây giờ hãy lưu điều này. Và hãy quay lại canvas.
Quy trình làm việc này sẽ gọi một AI agent để tạo nội dung này cho chúng ta. Tất nhiên, điều này không nhất thiết phải là một agent. Bạn có thể chỉ cần gọi một chuỗi LLM cơ bản. Nhưng vì tôi hơi lười biếng, tôi sẽ chỉ đính kèm node agent. Hãy thay đổi nguồn thành “Define Below”. Và hãy thêm một truy vấn vào prompt. Chúng ta cũng có thể thêm một tin nhắn hệ thống, nơi chúng ta có thể nói một cái gì đó như, “bạn là một trợ lý hữu ích, người tạo ra nội dung truyền thông xã hội chuyên nghiệp”.
Hãy quay lại canvas. Hãy thêm chat model của chúng ta. Và điều tuyệt vời về điều này là nếu bạn đang chạy n8n cục bộ, bạn có thể sử dụng một mô hình mã nguồn mở bằng Olama. Tôi sẽ chỉ đính kèm OpenAI. Tôi sẽ để điều này trên GPT-4. Và thế là xong. Hãy kiểm tra quy trình làm việc này. Và nếu chúng ta nhìn vào đầu ra của agent, chúng ta có thể thấy bài đăng Twitter của chúng ta ở đây.
Bây giờ hãy lưu điều này. Sau đó, hãy quay lại MCP server của chúng ta. Hãy nhấp vào “Tools”. Hãy chọn “Call n8n Workflow Tool”. Và bây giờ chúng ta có thể đặt tên cho nó như “create_social_media_content”. Và đối với mô tả, hãy nói, “sử dụng công cụ này khi tạo bài đăng trên mạng xã hội”. Bây giờ tất cả những gì chúng ta phải làm là chọn quy trình làm việc của chúng ta, mà chúng ta gọi là “Social Media Post Generator”. Bây giờ vì chúng ta đang sử dụng node AI agent, chúng ta có thể chỉ cần để AI tìm ra truy vấn là gì. Hãy quay lại canvas. Tôi sẽ chỉ đổi tên node này thành “Social Post Generator”.
Hãy xem điều gì sẽ xảy ra khi chúng ta lưu luồng này. Chúng ta có thể chỉ cần khởi động lại Claude Desktop, hoặc nếu bạn đang sử dụng Cursor, chỉ cần làm mới danh sách này và bạn sẽ thấy công cụ mới này. Nếu tôi nhấn Ctrl+I trong Cursor, điều này sẽ hiển thị cửa sổ chat. Và bây giờ chúng ta có thể kiểm tra điều này. Hãy nói, “create an expo về AI agents taking our jobs”.
Cursor thấy rằng chúng ta có công cụ này có sẵn. Hãy phê duyệt nó. Và nếu chúng ta nhìn vào đầu ra của công cụ này, bạn thực sự có thể thấy đầu ra từ agent của chúng ta. Điều này làm cho nó trở nên cực kỳ mạnh mẽ. Bây giờ chúng ta có trình tạo bài đăng trên mạng xã hội và một công cụ tính toán.
Một thứ tôi thực sự sử dụng là danh sách việc cần làm. Vì vậy, những gì chúng ta có thể làm là đi đến Airtable và tạo một bảng với hai cột, một cột “name” và “completed”. Ở đây, tôi đã thêm một vài mục và tôi đã đặt hai trong số đó là đã hoàn thành. Vì vậy, những gì tôi có thể làm trong máy chủ là thêm một công cụ mới. Hãy thêm Airtable. Tôi sẽ đổi tên điều này thành “list to-dos”. Và đối với thao tác, hãy thay đổi điều này thành “search”. Và cho cơ sở, hãy chọn “to-dos”. Và cho các bảng, hãy chọn “to-dos”. Tôi sẽ lọc lại và tôi sẽ trả về tất cả các mục. Và cho các tùy chọn, hãy chọn các trường đầu ra. Và từ đây, hãy chọn “name” cũng như “completed”.
Tôi đã tạo rất nhiều video, nơi tôi chỉ cho bạn cách tích hợp Airtable với n8n. Vì vậy, nếu bạn hơi lạc lõng, tôi sẽ liên kết đến các video khác trong phần mô tả của video này. Hãy quay lại canvas và hãy thêm hai node Airtable nữa. Hãy tìm kiếm Airtable. Cho thao tác, hãy chọn “create”. Hãy chọn cơ sở của chúng ta. Hãy chọn bảng. Và để ánh xạ, chúng ta sẽ để nó trên “map each column manually”. Và cho tên, chúng ta sẽ để AI quyết định và ban đầu “completed” sẽ được đặt thành “false”. Đây là một việc cần làm mới.
Hãy đổi tên node này thành “add to-do”. Và hãy thêm cái cuối cùng. Hãy gọi cái này là Airtable. Hãy thay đổi thao tác thành “update”. Và hãy thực sự đổi tên node này thành “update to-do”. Công cụ này sẽ cho phép chúng ta đặt một việc cần làm là đã hoàn thành hoặc chưa hoàn thành. Được rồi. Vì vậy, đối với các giá trị để cập nhật, hãy để AI quyết định. Và hãy thêm một mô tả. Và hãy thêm một cái gì đó như ID bản ghi Airtable, thường ở định dạng như thế này. Vì vậy, chúng ta có thể sử dụng trường mô tả này chỉ để hỗ trợ AI trong việc xác định cách nó sẽ điền vào trường này. Tôi đã gặp sự cố với ID Airtable trong quá khứ. Vì vậy, tôi muốn cung cấp cho nó một số hướng dẫn.
Đối với tên, tôi cũng sẽ để AI quyết định. Và tôi cũng sẽ để agent quyết định cách đặt “completed”. Và tôi nghĩ thế là xong. Hãy quay lại canvas. Hãy lưu máy chủ của chúng ta. Và quay lại Cursor. Hãy làm mới danh sách này. Và tuyệt vời! Bây giờ chúng ta có các công cụ việc cần làm của chúng ta. Hãy thử điều này. Hãy nói, “những việc cần làm hiện tại của tôi là gì?”. Hãy chạy công cụ này. Và thật tuyệt vời! Bây giờ chúng ta nhận lại được danh sách việc cần làm của mình. Hãy thử thêm một việc cần làm. Hãy nói, “add a new to-do called create_n8n_mcp_tutorial”.
Hãy phê duyệt cuộc gọi công cụ này. Và hãy phê duyệt cả cuộc gọi này nữa. Vì vậy, nó chỉ đang cố gắng truy xuất các công cụ để xem liệu nó có được thêm hay không. Và nhìn vào Airtable, chúng ta thực sự có thể thấy việc cần làm của chúng ta ở đây. Chúng ta cũng có thể sử dụng các máy chủ này làm công cụ trong các luồng agent khác của chúng ta.
Ở đây, tôi có một thiết lập agent siêu đơn giản. Nó có thể nhận tin nhắn chat. Chúng ta có node AI agent. Và không có gì lạ mắt ở đây cả. Và chúng ta chỉ đơn giản là sử dụng OpenAI làm LLM của mình. Bây giờ, để thêm máy chủ MCP làm công cụ, tất cả những gì chúng ta phải làm là nhấp vào “Tool”. Sau đó, hãy chọn “MCP Client Tool”. Và tất cả những gì chúng ta phải làm bây giờ là cung cấp endpoint cho máy chủ của chúng ta. Hãy nhấp vào máy chủ của chúng ta. Hãy lấy endpoint này. Và trong MCP Client Tool, hãy thêm endpoint của chúng ta. Nếu chúng ta bật xác thực trên máy chủ, đây là nơi chúng ta phải đặt xác thực đó. Và ở đây chúng ta có thể cho nó biết những công cụ nào sẽ bao gồm. Theo mặc định, chúng ta có thể chỉ cần kéo tất cả các công cụ, đó là những gì Claude và Cursor đang làm. Nhưng nếu chúng ta muốn, chúng ta có thể rất cụ thể. Vì vậy, trong danh sách này, chúng ta có thể thấy tất cả các công cụ có sẵn từ máy chủ. Tôi sẽ chỉ để nó ở “all” và để agent quyết định khi nào gọi công cụ nào. Phải. Vì vậy, hãy lưu điều này.
Hãy thử điều này. Hãy nói, “liệt kê các việc cần làm của tôi”. Và tuyệt vời! Ở đây chúng ta có thể thấy tất cả các việc cần làm của tôi. Và bây giờ hãy nói, “mark the createN8NMCPTutorial as done”. Được rồi. Agent đang nói nó đã được đánh dấu là đã hoàn thành. Và đi đến Airtable, chúng ta có thể thấy rằng bản cập nhật này thực sự đã xảy ra.
Bây giờ, tôi sẽ cho bạn một mẹo rất hài hước. Nhưng trước khi tôi làm điều đó, tôi muốn đề cập đến một hạn chế với việc triển khai hiện tại. Đối với máy khách MCP, chúng ta chỉ có thể gọi các endpoint SSE. Nếu bạn quen thuộc với Model Context Protocol, bạn biết rằng có rất nhiều máy chủ khác cũng có sẵn. Nếu tôi xem xét BRIVE Search, ví dụ, một số máy chủ yêu cầu bạn chạy các lệnh NPX, rất khác với SSE. Và thật không may, chúng ta không thể sử dụng bất kỳ máy chủ nào trong số này một cách tự nhiên trong n8n. Tuy nhiên, có một thủ thuật rất hài hước mà bạn có thể làm. Zapier cũng cung cấp một endpoint SSE, cung cấp cho bạn quyền truy cập vào rất nhiều tích hợp khác nhau. Và tôi biết Zapier thực tế là đối thủ cạnh tranh của n8n. Nhưng nếu có một tích hợp trong Zapier mà bạn muốn sử dụng trong n8n, tất cả những gì bạn phải làm là truy cập zapier.com/mcp, sau đó nhấp vào “Get Started”. Và ở đây bạn sẽ tìm thấy một endpoint SSE cho Zapier. Vì vậy, tất cả những gì bạn phải làm là sao chép URL này và sau đó thêm nó vào n8n. Vì vậy, tôi chỉ cần xóa điều này và dán URL Zapier vào. Bây giờ bạn có thể quyết định những hành động nào bạn muốn thêm vào máy chủ của mình bằng cách nhấp vào “Edit MCP Actions”. Và hiện tại, tôi đã thiết lập Gmail, nhưng bạn có thể nhấp vào “Add New Action”. Và tôi có thể tìm kiếm thông qua hàng ngàn tích hợp do Zapier cung cấp. Ví dụ: hãy tìm kiếm Discord. Và bây giờ bạn có thể tìm thấy tất cả các hành động khác nhau liên quan đến Discord, chẳng hạn như gửi tin nhắn kênh này. Và tất nhiên, Zapier sẽ hướng dẫn bạn qua các hướng dẫn thiết lập để kết nối với Discord.
Dù bằng cách nào, nếu bạn đi đến n8n, và nếu chúng ta nhấp vào “selected”, chúng ta có thể xem tất cả các hành động không được kéo từ chính Zapier. Vì vậy, tôi chỉ nghĩ rằng đây là một mẹo rất hay để thêm nhiều chức năng hơn vào n8n.
Chào mừng bạn đến với bài hướng dẫn chuyên sâu về n8n, nơi bạn sẽ được trang bị kiến thức để chuyển đổi từ một người mới bắt đầu thành một chuyên gia trong lĩnh vực tự động hóa và xây dựng các Agent AI mạnh mẽ. Bài viết này được thiết kế để cung cấp cho bạn lượng thông tin đầy đủ nhất, giúp bạn tự tin xây dựng các quy trình làm việc (workflow) của riêng mình sau khi hoàn thành.
Trong bài hướng dẫn này, bạn sẽ khám phá:
n8n là một nền tảng tự động hóa workflow mã nguồn mở mạnh mẽ. Nó cho phép bạn kết nối các chương trình, dịch vụ và công cụ khác nhau một cách dễ dàng, tạo ra một hệ thống làm việc trơn tru và hiệu quả. Với n8n, bạn có thể:
Ưu điểm lớn nhất của n8n là bạn không cần phải có kiến thức lập trình để sử dụng nó. n8n hoạt động với một giao diện trực quan, nơi bạn có thể kéo và thả các kết nối giữa các thành phần khác nhau để tạo ra các workflow đơn giản hoặc phức tạp.
Một Agent AI là một hệ thống tự động có khả năng tự mình thực hiện các tác vụ phức tạp. Khác với các hệ thống tự động hóa thông thường chỉ thực hiện các quy trình đã được lập trình sẵn, Agent AI có thể đưa ra quyết định và thích ứng với các tình huống khác nhau. Ví dụ:
Điểm mạnh nhất của Agent AI là khả năng hoạt động 24/7 mà không cần nghỉ ngơi. Điều này có nghĩa là bạn có thể xây dựng các hệ thống hỗ trợ khách hàng, quản lý tài liệu hoặc thực hiện các tác vụ kế toán hoạt động liên tục, giúp bạn tiết kiệm thời gian và chi phí.
Agent AI kết hợp các mô hình AI tiên tiến với khả năng truy cập vào các công cụ và dữ liệu. Điều này cho phép chúng thực hiện các tác vụ quá phức tạp đối với các hệ thống tự động hóa thông thường.
Học n8n mang lại nhiều lợi ích, đặc biệt trong bối cảnh tự động hóa và AI đang trở nên ngày càng quan trọng:
Học n8n không chỉ là một kỹ năng hữu ích, mà còn là một cơ hội để bạn đón đầu xu hướng và tạo ra những giá trị mới trong công việc và cuộc sống.
Giao diện n8n được thiết kế trực quan và dễ sử dụng. Dưới đây là một số thành phần chính:
Để làm quen với n8n, chúng ta sẽ xây dựng một workflow đơn giản để tạo bài đăng WordPress bằng cách sử dụng AI:
Lưu ý: Khi xây dựng các workflow phức tạp, bạn có thể sử dụng Sticky Note để ghi chú, giúp người dùng khác có thể hiểu được workflow của bạn một cách dễ dàng.
Tiếp theo, chúng ta sẽ xây dựng một workflow phức tạp hơn để tự động lấy transcript từ các video YouTube, tóm tắt nội dung và gửi email thông báo hàng ngày:
Trong quá trình xây dựng các workflow, bạn sẽ cần làm quen với một số khái niệm và công cụ quan trọng:
n8n là một nền tảng tự động hóa mạnh mẽ và linh hoạt, cho phép bạn xây dựng các workflow phức tạp để tự động hóa các tác vụ và quy trình khác nhau. Với kiến thức và kỹ năng có được từ bài hướng dẫn này, bạn đã sẵn sàng để khám phá tiềm năng vô tận của n8n và tạo ra những giải pháp tự động hóa sáng tạo cho riêng mình.
Chào mừng bạn đến với thế giới tự động hóa thông minh! Trong bài viết này, chúng ta sẽ khám phá một kỹ thuật mạnh mẽ có tên là “chuỗi prompt” (prompt chaining) và cách nó có thể biến đổi quy trình làm việc của bạn như thế nào. Đặc biệt, chúng ta sẽ sử dụng nền tảng n8n để xây dựng các quy trình tự động hóa AI một cách dễ dàng và hiệu quả.
Chuỗi prompt là một phương pháp chia nhỏ một nhiệm vụ phức tạp thành một chuỗi các bước nhỏ hơn, trong đó mỗi bước sử dụng kết quả của bước trước đó làm đầu vào. Theo bài viết “Building Effective Agents” của Anthropic, thay vì “nhồi nhét” một lượng lớn thông tin vào một mô hình ngôn ngữ lớn (LLM) duy nhất, chúng ta có thể tạo ra một chuỗi các lệnh (prompt) liên tiếp để đạt được kết quả mong muốn.
Hãy tưởng tượng bạn muốn viết một bài đăng blog. Thay vì yêu cầu AI viết toàn bộ bài viết từ đầu, bạn có thể:
Phương pháp này giúp quá trình trở nên dễ quản lý hơn, tăng độ chính xác và cho phép bạn kiểm soát tốt hơn kết quả cuối cùng.
N8N là một nền tảng tự động hóa workflow (quy trình làm việc) mã nguồn mở, cho phép bạn kết nối các ứng dụng và dịch vụ khác nhau để tạo ra các quy trình tự động hóa mạnh mẽ. Với n8n, bạn có thể dễ dàng xây dựng các chuỗi prompt để tự động hóa nhiều tác vụ khác nhau, từ tạo nội dung đến xử lý dữ liệu.
Hãy xem xét một ví dụ cụ thể về cách sử dụng chuỗi prompt để tự động tạo một bài đăng blog:
Với quy trình này, bạn có thể tạo ra một bài đăng blog hoàn chỉnh chỉ với một vài thao tác đơn giản!
Chuỗi prompt không chỉ hữu ích cho việc tạo nội dung. Bạn có thể sử dụng nó để tự động hóa nhiều tác vụ khác nhau, bao gồm:
Chuỗi prompt là một kỹ thuật mạnh mẽ có thể giúp bạn tự động hóa nhiều tác vụ khác nhau và tăng hiệu quả làm việc. Với n8n, việc xây dựng các chuỗi prompt trở nên dễ dàng và trực quan hơn bao giờ hết. Hãy thử nghiệm với các ví dụ khác nhau và khám phá tiềm năng vô tận của tự động hóa AI!
Trong các bài viết tiếp theo, chúng ta sẽ khám phá các mẫu tự động hóa AI khác như định tuyến (routing), song song hóa (parallelization) và nhiều hơn nữa. Hãy theo dõi để không bỏ lỡ những kiến thức hữu ích!
Bạn đã bao giờ nghĩ đến việc tạo ra một hệ thống “cỗ máy in tiền” hoạt động 24/7 mà không cần bạn phải trực tiếp can thiệp? Với sự trợ giúp của công cụ tự động hóa n8n, điều này hoàn toàn khả thi. Bài viết này sẽ “mổ xẻ” chi tiết cách xây dựng một hệ thống kiếm tiền thụ động sử dụng n8n, ngay cả khi bạn là người mới bắt đầu.
N8n là một nền tảng tự động hóa quy trình làm việc mã nguồn mở. Hiểu một cách đơn giản, n8n cho phép bạn “dạy” máy tính thực hiện một chuỗi các hành động (ví dụ: nhận dữ liệu từ website, xử lý dữ liệu, gửi email, cập nhật thông tin lên cơ sở dữ liệu…) một cách tự động.
Vậy tại sao lại là n8n mà không phải các công cụ khác?
Để minh họa cách n8n có thể giúp bạn kiếm tiền thụ động, chúng ta sẽ cùng nhau xây dựng một hệ thống đơn giản: “Cửa hàng ảo” cung cấp các dịch vụ xử lý dữ liệu bằng AI.
Trước khi bắt tay vào xây dựng hệ thống, bạn cần xác định rõ “sản phẩm” mình sẽ cung cấp. Trong ví dụ này, chúng ta sẽ cung cấp hai dịch vụ:
Bạn hoàn toàn có thể sáng tạo ra các “sản phẩm” khác dựa trên kiến thức và kỹ năng của mình.
Cửa hàng ảo sẽ là nơi khách hàng tìm đến và sử dụng dịch vụ của bạn. Bạn có thể sử dụng các nền tảng sau:
Yếu tố quan trọng của “cửa hàng ảo” là một biểu mẫu (form) để khách hàng nhập thông tin và yêu cầu dịch vụ. Biểu mẫu này sẽ bao gồm các trường sau:
Đây là phần “xương sống” của hệ thống. Chúng ta sẽ thiết kế quy trình làm việc trong n8n để tự động xử lý các yêu cầu từ khách hàng.
Để quy trình làm việc hoạt động trơn tru, bạn cần kết nối n8n với các ứng dụng và dịch vụ sau:
Bạn cần thiết lập hệ thống thanh toán và giao hàng tự động. Khi khách hàng thanh toán, họ sẽ nhận được một mật khẩu để sử dụng dịch vụ. Bạn có thể sử dụng các dịch vụ sau:
Để bạn dễ hình dung hơn, chúng ta sẽ đi sâu vào quy trình “Loại bỏ ‘mùi AI'” trong n8n.
Bạn có thể tùy chỉnh node “Google AI” để sử dụng các prompt (lời nhắc) khác nhau để điều chỉnh cách mô hình AI chỉnh sửa văn bản. Ví dụ, bạn có thể yêu cầu mô hình AI tập trung vào việc cải thiện ngữ pháp, thay đổi giọng văn, hoặc loại bỏ các cụm từ sáo rỗng.
N8n là một công cụ mạnh mẽ có thể giúp bạn tạo ra các hệ thống kiếm tiền thụ động. Với sự sáng tạo và kiên trì, bạn hoàn toàn có thể xây dựng một “cỗ máy in tiền” hoạt động hiệu quả. Hãy bắt đầu khám phá n8n ngay hôm nay!
AI n8n Tự Lưu Trữ Miễn Phí vs. n8n Cloud (TRẢ PHÍ): Lựa Chọn Nào Tốt Hơn cho Tự Động Hóa AI Agent?
Trong thế giới tự động hóa quy trình làm việc và xây dựng AI Agent (tác nhân AI), n8n nổi lên như một công cụ mạnh mẽ và linh hoạt. Tuy nhiên, người dùng thường phải đối mặt với lựa chọn giữa việc tự lưu trữ n8n (self-hosting) phiên bản mã nguồn mở miễn phí và sử dụng dịch vụ n8n Cloud trả phí. Quyết định này ảnh hưởng trực tiếp đến chi phí, mức độ kiểm soát, và sự tiện lợi trong quá trình sử dụng.
n8n là một nền tảng tự động hóa quy trình làm việc (workflow automation) mã nguồn mở, cho phép người dùng kết nối các ứng dụng và dịch vụ khác nhau để tạo ra các quy trình tự động. Nó được thiết kế để thân thiện với người dùng, ngay cả với những người không có kiến thức chuyên sâu về lập trình.
n8n cung cấp nhiều lợi ích cho việc tự động hóa AI Agent:
Tính năng | n8n Self-Hosting | n8n Cloud |
---|---|---|
Chi phí | Miễn phí (trừ chi phí máy chủ) | Trả phí hàng tháng/năm |
Kiểm soát | Hoàn toàn | Hạn chế |
Thiết lập | Phức tạp | Đơn giản |
Bảo trì | Tự quản lý | Tự động |
Cập nhật | Tự quản lý | Tự động |
Hỗ trợ | Cộng đồng | N8n |
Khả năng mở rộng | Linh hoạt | Linh hoạt |
Yêu cầu kỹ năng | Cao | Thấp |
Nhiều người dùng, đặc biệt là những người có nền tảng kỹ thuật, ban đầu chọn n8n Cloud vì sự tiện lợi. Tuy nhiên, khi nhu cầu tăng lên hoặc muốn tiết kiệm chi phí, họ chuyển sang tự lưu trữ. Quá trình này có thể gặp nhiều khó khăn, từ việc cấu hình máy chủ, giải quyết các vấn đề tương thích, đến việc quản lý cập nhật và bảo mật.
Ngược lại, một số người dùng sau một thời gian tự lưu trữ nhận thấy rằng chi phí thời gian và công sức bỏ ra lớn hơn so với chi phí sử dụng n8n Cloud. Họ quyết định quay lại Cloud để tập trung vào việc xây dựng và triển khai các quy trình tự động hóa thay vì lo lắng về cơ sở hạ tầng.
Một số vấn đề thường gặp khi self-hosting:
Việc lựa chọn giữa n8n self-hosting và n8n Cloud phụ thuộc vào nhiều yếu tố:
Lời khuyên chung: Nếu bạn mới bắt đầu, hãy thử n8n Cloud để làm quen với nền tảng. Sau đó, bạn có thể đánh giá xem self-hosting có phù hợp với nhu cầu của mình hay không.
Ngoài n8n, còn có một số nền tảng tự động hóa quy trình làm việc khác mà bạn có thể xem xét:
Việc lựa chọn giữa n8n self-hosting và n8n Cloud phụ thuộc vào nhu cầu và điều kiện cụ thể của bạn. Hãy cân nhắc kỹ các yếu tố như chi phí, kỹ năng kỹ thuật, thời gian, và mức độ kiểm soát để đưa ra quyết định phù hợp nhất. Hy vọng bài viết này đã cung cấp cho bạn cái nhìn tổng quan và giúp bạn đưa ra lựa chọn sáng suốt.
“`
ChatGPT Thông Minh Hơn: OpenAI Thêm Khả Năng Tham Chiếu Dữ Liệu Nội Bộ
Tính năng này cho phép người dùng thực hiện các tìm kiếm ngữ nghĩa (semantic search) trên dữ liệu của họ, liên kết trực tiếp đến các nguồn nội bộ trong phản hồi, nhận được ngữ cảnh phù hợp và cập nhật nhất, đồng thời đảm bảo rằng ChatGPT hiểu được biệt ngữ (lingo) nội bộ của công ty.
Hiện tại, quản trị viên ChatGPT Team có thể kết nối Google Drive với ChatGPT. Tuy nhiên, Nate Gonzales, một quản lý sản phẩm tại OpenAI, cho biết trên một bài đăng LinkedIn rằng nhóm “đang làm việc trên làn sóng kết nối tiếp theo, nhằm hỗ trợ tất cả các nguồn kiến thức nội bộ quan trọng mà nhóm của bạn dựa vào ngày nay.” Các nguồn này có thể bao gồm các nền tảng phân tích dữ liệu và CRM (Customer Relationship Management – Quản lý quan hệ khách hàng).
Gonzales nói thêm: “Một trong những điều tôi thích nhất: theo thời gian, mô hình học ngôn ngữ độc đáo của tổ chức bạn — tên dự án và từ viết tắt, và các thuật ngữ dành riêng cho nhóm — đồng thời tôn trọng quyền người dùng của bạn để các phản hồi được đặt trong đúng ngữ cảnh. (Chúng tôi yêu thích tên mã của mình tại OpenAI ?)”.
Bằng cách kết nối các cơ sở kiến thức nội bộ, ChatGPT Team có thể trở nên vô giá hơn đối với những người dùng đã đặt câu hỏi về chiến lược hoặc yêu cầu phân tích từ nền tảng. Truy vấn dữ liệu cụ thể của công ty và lĩnh vực cho phép người dùng có thêm ngữ cảnh cho các cuộc trò chuyện của họ và làm cho chatbot AI trở nên hữu ích hơn.
Không có gì đáng ngạc nhiên, nhiều công ty có nền tảng AI, chatbot, tác nhân (agent) hoặc ứng dụng đều quảng cáo đồ thị tri thức nội bộ (internal knowledge graph) độc quyền của họ như một yếu tố khác biệt. Đây cũng là lý do tại sao tìm kiếm doanh nghiệp (enterprise search) là một lĩnh vực AI doanh nghiệp đang phát triển.
Các công ty như Glean cung cấp một cách để sử dụng AI để tìm thông tin trong toàn công ty. ServiceNow đã mua lại MoveWorks trong một nỗ lực để tăng cường khả năng tìm kiếm doanh nghiệp của mình.
OpenAI đã cho phép mọi người tải trực tiếp tài liệu lên từ Google Drive hoặc Microsoft OneDrive. Google đã mang sức mạnh của Gemini vào sản phẩm Workspace của mình, có nghĩa là người dùng có thể đặt câu hỏi cho mô hình về công việc của họ trong khi đang ở trong một tệp. Perplexity đã thêm khả năng sử dụng tài liệu nội bộ làm nguồn dữ liệu.
OpenAI cho biết các biện pháp kiểm soát xung quanh các nguồn dữ liệu sẽ khác nhau đối với một số người dùng.
Trong khi chỉ quản trị viên mới có thể thêm trình kết nối dữ liệu, người dùng từ các nhóm nhỏ hơn có thể định cấu hình thời điểm ChatGPT sẽ khai thác cơ sở kiến thức nội bộ và ổ đĩa nào. Tuy nhiên, các nhóm lớn hơn yêu cầu quản trị viên quyết định ổ Google Drive dùng chung nào có thể được truy cập.
OpenAI cho biết ChatGPT biết khi nào nên truy cập các nguồn dữ liệu được kết nối cho nhiều lời nhắc phổ biến. Người dùng vẫn có thể chọn “Kiến thức nội bộ” trong trình soạn thảo tin nhắn.
Công ty cho biết ChatGPT “hoàn toàn tôn trọng các cài đặt và quyền hiện có của tổ chức”, vì vậy những người dùng không có quyền truy cập vào các ổ đĩa hoặc tài liệu cụ thể không thể buộc ChatGPT đọc chúng.
MCP đang tạo nên một cơn sốt trong thế giới AI. Trong bài viết này, chúng ta sẽ khám phá MCP một cách đơn giản nhất có thể. Bất kể nền tảng của bạn là gì, bạn sẽ hiểu đầy đủ về nó, tại sao nó có tiềm năng thay đổi cách chúng ta tương tác với AI agents. Sau đó, chúng ta sẽ xem một vài bản demo về cách nó hoạt động và thực hiện hướng dẫn từng bước đơn giản về cách kết nối một vài máy chủ MCP với AI agent của bạn để bạn có cái nhìn tổng quan về toàn bộ khái niệm và cách nó hoạt động.
MCP không phải là một khái niệm mới. Nó được Entropic phát hành vào ngày 25 tháng 11 năm 2024. Theo Entropic, đây là một cách để AI assistants kết nối với các hệ thống khác nhau nơi dữ liệu tồn tại, bao gồm các kho nội dung và các API và công cụ khác nhau. Gần đây, nó đã có được động lực lớn, đó là lý do tại sao mọi người đều nói về nó.
Nói một cách đơn giản, MCP giống như việc cung cấp cho AI của bạn một chìa khóa vạn năng, cho phép nó truy cập vào các thành phần, công cụ, tài nguyên dữ liệu, API và mọi thứ khác nhau mà trước đây yêu cầu kết nối thủ công. Bây giờ, tất cả có thể được truy cập một cách linh hoạt và hữu ích thông qua giao thức này. Đối với AI agents, đây có thể là một yếu tố thay đổi cuộc chơi vì nó tiêu chuẩn hóa cách agents có thể truy cập và tương tác với các tài nguyên dữ liệu bên ngoài.
MCP cho phép AI agents của bạn mở rộng quy mô. Chúng ta sẽ xem xét kỹ hơn về cách nó khác biệt so với tích hợp hiện tại mà n8n và AI agents có, và tại sao nó có thể thay đổi cách chúng ta tương tác với dữ liệu, các công cụ API bên ngoài và tài nguyên bên ngoài khác nhau.
Firecrawl là một công cụ cào dữ liệu (scraping website) phổ biến, biến bất kỳ dữ liệu trang web nào thành dữ liệu sẵn sàng cho LLM. Firecrawl MCP server cho phép bạn truy cập tất cả các tài nguyên và công cụ của Firecrawl mà không cần kết nối riêng lẻ.
Ví dụ: Khi bạn hỏi AI agent “Bạn có những công cụ nào?”, nó sẽ liên hệ với OpenAI và truy cập vào Firecrawl, liệt kê các công cụ khác nhau có sẵn trong Firecrawl MCP server.
Trước đây, nếu bạn muốn truy cập các công cụ khác nhau này, bạn sẽ phải kết nối riêng lẻ thông qua HTTP request node hoặc HTTP request tools, đặc biệt nếu chúng không có kết nối gốc hoặc tích hợp gốc với n8n. Bạn sẽ cần kết nối riêng lẻ tất cả các công cụ này trong Firecrawl và cung cấp lời nhắc để nó biết chính xác khi nào cần truy cập vào công cụ cụ thể đó cho bất kỳ mục đích nào bạn cung cấp.
Nhưng với MCP, tất cả những gì bạn cần làm là kết nối MCP server của mình với Firecrawl và yêu cầu nó liệt kê các công cụ. AI không cần bất kỳ lời nhắc nào. Nó có thể trực tiếp truy cập vào công cụ Firecrawl và cung cấp cho bạn tất cả các công cụ mà nó có quyền truy cập.
Ví dụ: Bạn có thể yêu cầu nó cào một trang web cụ thể và nó sẽ truy cập các công cụ để xem những công cụ nào nó có quyền truy cập. Sau đó, nó sẽ sử dụng công cụ phù hợp để cung cấp phản hồi cho truy vấn mà người dùng cung cấp.
Như bạn có thể thấy, nó đã cào trang web một cách chính xác, bao gồm nội dung trực quan và tất cả các thông tin khác có sẵn trên trang web đó.
Trước đây, nếu bạn xây dựng một Calendar Agent, agent chính này cần có quyền truy cập vào tất cả các công cụ khác nhau trong Google Calendar. Bạn sẽ phải thiết lập riêng các công cụ để cập nhật sự kiện, xóa sự kiện, lấy sự kiện, tạo sự kiện mới và tạo sự kiện mới với người tham dự. Bên trong AI agent, bạn cần cung cấp một system prompt để cho nó biết công cụ nào được sử dụng cho mục đích nào.
MCP thay thế việc thêm các hành động riêng biệt theo cách thủ công bằng cách cung cấp một danh sách các công cụ. Nó liệt kê tất cả các công cụ mà nó có sẵn và sau đó, dựa trên truy vấn mà người dùng đang hỏi, nó sẽ thực thi công cụ chính xác dựa trên thông tin mà nó nhận được từ người dùng.
Nếu bạn xây dựng AI agent ở quy mô lớn, đây có thể là rất nhiều công việc thủ công. MCP loại bỏ sự cần thiết phải có các AI agents riêng biệt, thiết lập tham số riêng biệt, nhắc riêng cho từng AI agent và các công cụ mà nó có quyền truy cập. Nó thay thế tất cả bằng hai công cụ MCP server: list tool và execute.
Bạn có thể áp dụng điều này cho nhiều hoạt động khác nhau trong cùng một AI agent. Điều này trở nên rất dễ dàng ở quy mô lớn vì bạn không còn cần phải vào các agents riêng biệt và có các công cụ riêng biệt mà bạn đang đính kèm. Thay vào đó, bạn có một cách tiêu chuẩn để giao tiếp và một cách tiêu chuẩn để tiếp cận các công cụ và thực hiện các lệnh khác nhau dựa trên truy vấn mà người dùng cung cấp.
Brave Search hoạt động theo cách tương tự. Dựa trên truy vấn, nó sẽ cung cấp thông tin phù hợp.
Ví dụ: Khi bạn hỏi “Bạn có những công cụ nào?”, nó sẽ liên hệ với Brave và cung cấp cho bạn các công cụ mà nó có quyền truy cập. Trong trường hợp này, Brave Search MCP server có quyền truy cập vào hai công cụ: brave web search và brave local search.
Sau đó, bạn có thể hỏi “Tin tức mới nhất liên quan đến OpenAI là gì?”. Nó sẽ truy cập vào công cụ thực thi và mang đến tin tức mới nhất liên quan đến OpenAI.
Hiện tại, điều này chỉ khả dụng trên phiên bản local hosted vì nó chỉ là một community server. Tất cả những gì bạn đang thấy (công cụ MCP) thực sự là một community node. Do đó, bạn cần đảm bảo rằng bạn đang ở trong phiên bản local hosted của mình.
Tùy thuộc vào phiên bản local hosted bạn đang sử dụng (npm hoặc Docker), yêu cầu sẽ thay đổi. Hãy xem hướng dẫn về cách chạy n8n cục bộ trên máy của bạn thông qua npm.
Đăng nhập vào tài khoản của bạn trên Local Host. Đi tới cài đặt (settings), nhấp vào community nodes và tìm kiếm NN nodes mCP, sau đó cài đặt nó.
Bạn sẽ thấy NN noes dmcp trong community noes của mình.
Tạo một workflow mới. Thêm một AI agent. Chọn một chat model (ví dụ: OpenAI).
Nhấp vào tools và tìm kiếm MCP. Nếu bạn đã cài đặt node chính xác, MCP client tool sẽ hiển thị ở đây. Nếu nó không hiển thị, bạn cần cài đặt nó.
Nhấp vào MCP client tool. Thêm credentials của bạn. Nhấp vào “Create new credentials”.
Credentials setup này hơi khác so với setups thông thường của bạn. Bạn cần cung cấp command, arguments và environments cho setup cụ thể này.
Đi tới từng MCP server mà bạn muốn kết nối. Ví dụ: nếu bạn muốn kết nối với Firecrawl, hãy truy cập Firecrawl MCP server. Nó sẽ cung cấp tất cả các thông tin và hướng dẫn khác nhau mà bạn cần để kết nối với Firecrawl server này.
Sao chép command, argument và environment.
Trong Firecrawl MCP credential setup:
Đi tới MCP Dev portal để tạo API key miễn phí. Sao chép và dán API key của bạn. Nhấp vào Save.
Brave Search cũng tương tự. Tạo một API key miễn phí.
Trong Brave Search API credentials:
Dán API key của bạn. Nhấp vào Save.
Công cụ đầu tiên mà bạn sẽ kết nối là “List Tool”. Công cụ thứ hai là “Execute Tool”.
Đối với “Execute Tool”, bạn cần cung cấp một tên công cụ. Bạn có thể sử dụng AI function để lấy tên công cụ một cách động.
Trong tool name, hãy sử dụng lệnh từ AI tool đã chọn để thực thi.
Đối với tool parameter, hãy nhấp vào biểu tượng ba sao để xác định nó tự động bằng model.
Đặt tên cho chúng để dễ dàng quản lý: ví dụ: “Firecrawl List” và “Firecrawl Execute”.
Nhấp vào “Open Chat”. Nhập “Bạn có những công cụ nào?”. Nó sẽ liệt kê tất cả các công cụ mà nó có quyền truy cập.
Sau đó, bạn có thể yêu cầu nó cào một trang web. Nó sẽ sử dụng công cụ thích hợp và cung cấp cho bạn thông tin mà bạn yêu cầu.
Công cụ “List Tool” liệt kê tất cả các công cụ có sẵn. Nó cho biết tên của công cụ, mô tả và các lược đồ khác nhau mà nó cần quyền truy cập để thực hiện các tìm kiếm hoặc truy vấn được yêu cầu.
Công cụ “Execute Tool” sử dụng giá trị động để truy cập vào công cụ thích hợp và thực hiện chức năng một cách chính xác.
MCP loại bỏ sự cần thiết phải thêm các công cụ riêng lẻ và giúp bạn dễ dàng mở rộng quy mô AI agents. Bạn có thể sử dụng các server này và cung cấp chức năng cho các MCP server thay vì tạo các kết nối riêng lẻ theo cách thủ công.
Đây là vẻ đẹp của MCP server và đó là lý do tại sao nó có tiềm năng lớn khi thay đổi cách AI agents tiếp cận các nguồn dữ liệu hoặc API khác nhau. Thay vì sử dụng HTTP request tool để kết nối với các công cụ khác nhau, giờ đây bạn có thể chuyển tất cả các chức năng đó sang MCP server. Tất cả những gì bạn cần làm là đảm bảo rằng bạn đang đặt giá trị động và dựa trên truy vấn, nó sẽ tiếp cận công cụ thích hợp và lấy thông tin mà không cần bạn phải thực hiện bất kỳ kết nối thủ công nào.
Chào mừng bạn đến với hướng dẫn chi tiết về cách tạo content chuẩn SEO năm 2025 bằng công cụ AI. Bài viết này sẽ giúp bạn đạt được những kết quả ấn tượng, thu hút lượng lớn traffic và cạnh tranh hiệu quả trên thị trường.
Trong bối cảnh thuật toán tìm kiếm ngày càng thông minh, việc tạo ra content chuẩn SEO không chỉ là xu hướng mà là yêu cầu bắt buộc. Bài viết này sẽ cung cấp cho bạn những update mới nhất và phương pháp hiệu quả để xây dựng content chất lượng, đáp ứng tiêu chí của Google và các công cụ tìm kiếm khác.
Chúng ta sẽ cùng nhau khám phá các phần sau:
Theo tôi, content chuẩn SEO là bài viết được tối ưu hóa để các công cụ tìm kiếm như Google, Bing, Cốc Cốc… dễ dàng thu thập và đánh giá. Mục tiêu là nâng cao thứ hạng từ khóa mong muốn, thu hút traffic tự nhiên và xây dựng hình ảnh thương hiệu theo định hướng.
Nếu được thực hiện đúng cách, content chuẩn SEO mang lại nhiều lợi ích to lớn:
Để tạo ra content chuẩn SEO hiệu quả trong năm 2025, bạn cần đáp ứng các tiêu chí sau:
Hiểu rõ ý định tìm kiếm (search intent) của người dùng là yếu tố then chốt. Khi người dùng tìm kiếm một từ khóa, họ muốn gì? Thông tin, video hướng dẫn, ứng dụng, hay một bộ phim? Nội dung của bạn phải đáp ứng đúng nhu cầu đó.
Ví dụ: Với từ khóa “cách thắt cà vạt”, người dùng thường muốn xem video hướng dẫn. Do đó, ngoài việc hướng dẫn bằng text, bạn nên chèn thêm hình ảnh minh họa từng bước và video hướng dẫn chi tiết.
Có 9 loại search intent phổ biến. Bạn có thể tìm hiểu thêm về chúng để xây dựng content phù hợp với từng loại.
Ví dụ, content trên trang review sản phẩm sẽ khác với content trên blog hay trang category của website thương mại điện tử. Trang category không cần bài viết 2000 chữ, mà chỉ cần mô tả ngắn gọn, súc tích về sản phẩm.
Bạn không cần tạo ra nội dung hoàn hảo, mà chỉ cần tốt hơn đối thủ. Hãy nghiên cứu top 3-5 đối thủ cạnh tranh từ khóa bạn mong muốn. Họ đang làm tốt điều gì? Họ làm chưa tốt điều gì? Từ đó, bạn học hỏi và cải thiện.
Ví dụ: Trong lĩnh vực thiết kế nội thất, nếu đối thủ sử dụng hình ảnh mờ, bạn hãy sử dụng hình ảnh sắc nét, chất lượng cao. Nếu họ chỉ sử dụng hình ảnh lấy trên mạng, bạn hãy sử dụng hình ảnh dự án thực tế của bạn.
Google đánh giá cao các tiêu chí E-E-A-T: Experience (kinh nghiệm), Expertise (chuyên môn), Authoritativeness (tính thẩm quyền) và Trustworthiness (độ tin cậy).
Nội dung chất lượng được thể hiện qua các chỉ số:
Chi phí truy xuất bao gồm chi phí để Google thu thập, đọc, hiểu, sắp xếp và lưu trữ nội dung của bạn. Hãy giúp Google làm việc này một cách dễ dàng nhất có thể.
Viết nội dung ngắn gọn, xúc tích, dễ hiểu. Bố cục bài viết rõ ràng, mạch lạc. Điều này giúp Googlebot truy xuất dữ liệu và trả lời truy vấn của người dùng một cách hiệu quả.
Tưởng tượng bạn đang đọc một quyển sách. Nếu quyển sách có mục lục chi tiết, bạn sẽ dễ dàng tìm thấy thông tin cần thiết hơn. Google cũng vậy.
Chuyển đổi ở đây không chỉ là việc người dùng để lại thông tin liên hệ hay mua hàng. Đó là việc chuyển đổi từ hành động này sang hành động khác. Ví dụ, từ việc tìm kiếm thông tin cơ bản về SEO, người dùng có thể chuyển sang tìm hiểu về content chuẩn SEO, quy trình SEO…
Hãy tiếp nối hành trình của khách hàng, dẫn dắt họ từ giai đoạn này sang giai đoạn khác, cho đến khi họ trở thành khách hàng của bạn.
Quy trình này bao gồm 5 bước, được hỗ trợ bởi công cụ AI:
Xác định từ khóa mục tiêu và nhóm các từ khóa có cùng ý định tìm kiếm lại với nhau. Không phải từ khóa nào cũng cần một bài viết riêng. Một bài viết có thể bao phủ hàng trăm, thậm chí hàng ngàn từ khóa.
Outline là bố cục nội dung, dàn bài chi tiết của bài viết. Article methodology là cách bạn luận và chọn văn, trình bày ý tưởng.
Ví dụ: Với đề mục “Lợi ích của SEO”, bạn cần có dàn ý chi tiết: Lợi ích 1 (mang lại ROI), Lợi ích 2, Lợi ích 3… Với lợi ích “mang lại ROI”, bạn cần giải thích ROI là gì, tại sao SEO lại mang lại ROI, có ví dụ hay nghiên cứu nào chứng minh không?
Article methodology giúp bạn:
Sử dụng prompt sau để AI tạo ra outline chi tiết, bao gồm cả dàn ý:
First, read these documents: - [URL Google Helpful Content](thay bằng URL thực tế) - [URL Google Search Quality Evaluator Guidelines](thay bằng URL thực tế, bỏ qua nếu dùng Gemini) Then, analyze these articles (top 3 Google results for keyword "[từ khóa mục tiêu]"): - [URL bài viết top 1](thay bằng URL thực tế) - [URL bài viết top 2](thay bằng URL thực tế) - [URL bài viết top 3](thay bằng URL thực tế) Basically, using the keyword "[từ khóa mục tiêu]" and considering the quality factors (expertise, authoritativeness, trustworthiness, etc.) based on the documents above and the analysis of the top 3 articles, create a content outline that is at least equal to or better than the competitors.
Lưu ý:
Viết bài dựa trên outline và article methodology đã xây dựng. Hoặc, bạn có thể thuê người viết bên ngoài (outsourcing).
Tối ưu bài viết để tốt cho cả công cụ tìm kiếm và người dùng:
Tối ưu đoạn văn sau để chuẩn NLP: "[đoạn văn cần tối ưu]"
Đề xuất danh sách từ khóa ngữ nghĩa liên quan đến chủ đề "[chủ đề bài viết]"
Tối ưu bài viết để thu hút và giữ chân người đọc. Tham khảo các kỹ thuật copywriting để viết hay hơn, mạch lạc hơn.
Hy vọng bài viết này đã cung cấp cho bạn những kiến thức hữu ích về cách tạo content chuẩn SEO 2025 với sự hỗ trợ của AI. Chúc bạn thành công!
Google tiếp tục khẳng định vị thế tiên phong trong lĩnh vực trí tuệ nhân tạo (AI) với việc ra mắt mô hình ngôn ngữ nhỏ (SLM) mới nhất của mình, Gemma 3. Phiên bản này hứa hẹn mang lại hiệu suất mạnh mẽ, khả năng xử lý đa phương tiện ấn tượng và đặc biệt, mở ra cơ hội ứng dụng AI rộng rãi hơn trên các thiết bị cá nhân như điện thoại và máy tính xách tay. Gemma 3 không chỉ là một bản nâng cấp đơn thuần, mà còn là một bước tiến quan trọng trong việc dân chủ hóa AI, giúp các doanh nghiệp và nhà phát triển dễ dàng tiếp cận và tận dụng sức mạnh của công nghệ này.
Trong bối cảnh các mô hình ngôn ngữ lớn (LLM) ngày càng trở nên phổ biến, Gemma 3 nổi lên như một giải pháp thay thế hấp dẫn. LLM đòi hỏi nguồn lực tính toán đáng kể, gây ra những lo ngại về chi phí và tiêu thụ năng lượng. Gemma 3, với kích thước nhỏ gọn hơn, giải quyết vấn đề này bằng cách cung cấp hiệu suất tương đương mà không đòi hỏi phần cứng đắt tiền. Điều này đặc biệt quan trọng đối với các ứng dụng di động và các thiết bị biên, nơi tài nguyên hạn chế là một yếu tố cần cân nhắc.
Gemma 3 sở hữu nhiều ưu điểm nổi bật, bao gồm:
Gemma 3 có bốn kích thước khác nhau: 1B, 4B, 12B và 27B parameters. Sự đa dạng này cho phép người dùng lựa chọn phiên bản phù hợp nhất với nhu cầu và nguồn lực của mình. Các phiên bản nhỏ hơn phù hợp với các thiết bị có cấu hình thấp, trong khi các phiên bản lớn hơn cung cấp hiệu suất cao hơn cho các tác vụ phức tạp.
Google tuyên bố rằng Gemma 3 đạt được “hiệu suất hàng đầu so với kích thước của nó” và vượt trội hơn so với các LLM hàng đầu như Llama-405B, DeepSeek-V3 và o3-mini. Đặc biệt, phiên bản Gemma 3 27B đã đạt được vị trí thứ hai trong các bài kiểm tra Chatbot Arena Elo, chỉ sau DeepSeek-R1. Điều này chứng tỏ rằng Gemma 3 là một đối thủ đáng gờm trong thị trường AI, mang lại hiệu suất ấn tượng với chi phí thấp hơn.
Để giảm chi phí tính toán hơn nữa, Google đã giới thiệu các phiên bản lượng tử hóa của Gemma 3. Mô hình lượng tử hóa là mô hình nén, đạt được bằng cách “giảm độ chính xác của các giá trị số trong trọng số của mô hình” mà không làm giảm độ chính xác. Điều này cho phép người dùng cải thiện hiệu suất, chạy mô hình và xây dựng các ứng dụng “có thể phù hợp trên một GPU và TPU duy nhất.”
Gemma 3 tích hợp với các công cụ phát triển phổ biến như Hugging Face Transformers, Ollama, JAX, Keras, PyTorch và nhiều công cụ khác. Người dùng cũng có thể truy cập Gemma 3 thông qua Google AI Studio, Hugging Face hoặc Kaggle. Các công ty và nhà phát triển có thể yêu cầu quyền truy cập vào API Gemma 3 thông qua AI Studio.
Google đã tích hợp các giao thức an toàn vào Gemma 3, bao gồm một trình kiểm tra an toàn cho hình ảnh có tên là ShieldGemma 2. Công cụ này giúp ngăn chặn mô hình tạo ra hoặc phản hồi bằng các hình ảnh chứa nội dung khiêu dâm, bạo lực hoặc các nội dung nguy hiểm khác. Người dùng có thể tùy chỉnh ShieldGemma 2 để phù hợp với nhu cầu cụ thể của mình.
Google cho biết quá trình phát triển Gemma 3 bao gồm quản trị dữ liệu rộng rãi, tuân thủ các chính sách an toàn thông qua tinh chỉnh và đánh giá điểm chuẩn mạnh mẽ. Các đánh giá tập trung vào tiềm năng sử dụng sai mục đích của mô hình trong việc tạo ra các chất độc hại, và kết quả cho thấy mức độ rủi ro thấp.
Kể từ khi Google phát hành Gemma lần đầu tiên vào tháng 2 năm 2024, các SLM đã chứng kiến sự tăng trưởng về mức độ quan tâm. Các mô hình nhỏ khác như Microsoft’s Phi-4 và Mistral Small 3 cho thấy các doanh nghiệp muốn xây dựng các ứng dụng với các mô hình mạnh mẽ như LLM, nhưng không nhất thiết phải sử dụng toàn bộ khả năng của một LLM.
Các doanh nghiệp cũng bắt đầu chuyển sang các phiên bản nhỏ hơn của LLM mà họ thích thông qua chưng cất. Để rõ ràng, Gemma không phải là một sản phẩm chưng cất của Gemini 2.0; đúng hơn, nó được đào tạo với cùng một bộ dữ liệu và kiến trúc. Một mô hình chưng cất học hỏi từ một mô hình lớn hơn, điều mà Gemma không làm.
Các tổ chức thường thích phù hợp với các trường hợp sử dụng nhất định cho một mô hình. Thay vì triển khai một LLM như o3-mini hoặc Claude 3.7 Sonnet cho một trình chỉnh sửa mã đơn giản, một mô hình nhỏ hơn, cho dù là một SLM hay một phiên bản chưng cất, có thể dễ dàng thực hiện các tác vụ đó mà không cần phải trang bị quá nhiều cho một mô hình lớn.
Trong thế giới AI đang phát triển nhanh chóng, Gemma 3 nổi lên như một giải pháp đột phá, mang đến sự kết hợp hoàn hảo giữa hiệu suất, tính linh hoạt và khả năng tiếp cận. Được phát triển bởi Google, mô hình ngôn ngữ nhỏ (SLM) này không chỉ là một bản nâng cấp đơn thuần so với các phiên bản trước, mà còn là một bước tiến quan trọng trong việc dân chủ hóa AI, cho phép các doanh nghiệp và nhà phát triển ở mọi quy mô tận dụng sức mạnh của công nghệ này.
Gemma 3 có sẵn trong bốn kích cỡ khác nhau, được biểu thị bằng số lượng tham số: 1B, 4B, 12B và 27B. Sự đa dạng này cho phép người dùng lựa chọn phiên bản phù hợp nhất với nhu cầu và nguồn lực của họ:
Tất cả các phiên bản của Gemma 3 đều được xây dựng dựa trên cùng một kiến trúcTransformer tiên tiến, cho phép mô hình học hỏi các mối quan hệ phức tạp trong dữ liệu và tạo ra các kết quả chính xác và phù hợp.
Một trong những điểm nổi bật của Gemma 3 là hiệu suất ấn tượng so với kích thước nhỏ gọn của nó. Google tuyên bố rằng Gemma 3 “đạt được hiệu suất hàng đầu so với kích thước của nó” và vượt trội hơn so với các mô hình ngôn ngữ lớn (LLM) hàng đầu khác trong một số điểm chuẩn nhất định. Điều này có nghĩa là Gemma 3 có thể cung cấp kết quả tương đương hoặc thậm chí tốt hơn so với các LLM đòi hỏi nhiều tài nguyên hơn, giúp giảm chi phí và tiêu thụ năng lượng.
Gemma 3 có cửa sổ ngữ cảnh lên đến 128K tokens, cho phép mô hình hiểu và xử lý thông tin phức tạp hơn so với các phiên bản trước. Cửa sổ ngữ cảnh lớn hơn cho phép Gemma 3 nắm bắt được ngữ cảnh rộng hơn, đưa ra các phản hồi chính xác và phù hợp hơn, đặc biệt là trong các tác vụ như tạo nội dung dài, tóm tắt văn bản và trả lời câu hỏi phức tạp.
Không giống như nhiều SLM khác chỉ tập trung vào xử lý văn bản, Gemma 3 có khả năng phân tích và xử lý cả hình ảnh và video ngắn. Điều này mở ra một loạt các ứng dụng mới, chẳng hạn như:
Gemma 3 hỗ trợ tới 140 ngôn ngữ, cho phép các nhà phát triển xây dựng các ứng dụng AI phục vụ người dùng trên toàn thế giới. Điều này đặc biệt quan trọng trong bối cảnh toàn cầu hóa ngày càng gia tăng, nơi các doanh nghiệp cần phải giao tiếp và tương tác với khách hàng ở nhiều quốc gia và khu vực khác nhau.
Tính năng gọi hàm (function calling) cho phép Gemma 3 tự động hóa các tác vụ và quy trình làm việc bằng cách kết nối với các công cụ và dịch vụ bên ngoài. Ví dụ:
Tính năng gọi hàm giúp tiết kiệm thời gian và công sức, đồng thời tăng cường hiệu quả hoạt động.
Để giảm chi phí tính toán và cải thiện hiệu suất, Google cung cấp các phiên bản lượng tử hóa của Gemma 3. Mô hình lượng tử hóa là mô hình nén, đạt được bằng cách giảm độ chính xác của các giá trị số trong trọng số của mô hình mà không làm giảm đáng kể độ chính xác. Điều này cho phép người dùng chạy Gemma 3 trên các thiết bị có tài nguyên hạn chế, chẳng hạn như điện thoại thông minh và máy tính bảng.
Gemma 3 tích hợp với các công cụ phát triển phổ biến như Hugging Face Transformers, Ollama, JAX, Keras, PyTorch và nhiều công cụ khác. Điều này giúp các nhà phát triển dễ dàng sử dụng Gemma 3 trong các dự án của họ. Người dùng cũng có thể truy cập Gemma 3 thông qua Google AI Studio, Hugging Face hoặc Kaggle.
Google đã tích hợp các giao thức an toàn vào Gemma 3, bao gồm một trình kiểm tra an toàn cho hình ảnh có tên là ShieldGemma 2. Công cụ này giúp ngăn chặn mô hình tạo ra hoặc phản hồi bằng các hình ảnh chứa nội dung khiêu dâm, bạo lực hoặc các nội dung nguy hiểm khác. ShieldGemma 2 có thể được tùy chỉnh để phù hợp với nhu cầu cụ thể của từng ứng dụng.
Gemma 3 có tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực khác nhau, bao gồm:
Gemma 3 là một mô hình ngôn ngữ nhỏ đầy tiềm năng, mang đến sự kết hợp hoàn hảo giữa hiệu suất, tính linh hoạt và khả năng tiếp cận. Với cửa sổ ngữ cảnh mở rộng, khả năng đa phương tiện, hỗ trợ đa ngôn ngữ và tính năng gọi hàm, Gemma 3 mở ra một loạt các ứng dụng mới và hứa hẹn sẽ đóng góp quan trọng vào sự phát triển của lĩnh vực AI.
Chú ý: Nội dung khóa học online có thể thay đổi mà không cần báo trước.