LangChain chỉ ra rằng các AI agent vẫn chưa đạt đến trình độ con người vì chúng bị choáng ngợp bởi các công cụ

Txl 1 17

Một robot do AI tạo ra đang ngồi trước máy tính, trả lời các yêu cầu dịch vụ khách hàng.

 

Ngay sau khi các AI agent cho thấy tiềm năng, các tổ chức đã phải vật lộn để tìm ra liệu một agent duy nhất có đủ hay không, hoặc liệu họ nên đầu tư vào việc xây dựng một mạng lưới đa agent rộng lớn hơn, tiếp cận nhiều điểm hơn trong tổ chức của họ. 

Công ty framework điều phối LangChain đã tìm cách tiếp cận gần hơn với câu trả lời cho câu hỏi này. Họ đã thực hiện một số thử nghiệm trên một AI agent và nhận thấy rằng các agent đơn lẻ có một giới hạn về ngữ cảnh và công cụ trước khi hiệu suất của chúng bắt đầu giảm sút. Những thử nghiệm này có thể dẫn đến sự hiểu biết tốt hơn về kiến trúc cần thiết để duy trì các agent và hệ thống đa agent. 

Trong một bài đăng trên blog, LangChain đã trình bày chi tiết một loạt các thử nghiệm mà họ đã thực hiện với một ReAct agent duy nhất và đánh giá hiệu suất của nó. Câu hỏi chính mà LangChain hy vọng trả lời là: “Tại thời điểm nào thì một ReAct agent duy nhất trở nên quá tải với các hướng dẫn và công cụ, và sau đó chứng kiến hiệu suất giảm?”

LangChain đã chọn sử dụng framework ReAct agent vì nó là “một trong những kiến trúc agent cơ bản nhất.”

Mặc dù việc đánh giá hiệu suất của agent thường có thể dẫn đến kết quả gây hiểu lầm, LangChain đã chọn giới hạn thử nghiệm ở hai nhiệm vụ dễ định lượng của một agent: trả lời câu hỏi và lên lịch cuộc họp. 

LangChain viết: “Có rất nhiều điểm chuẩn hiện có cho việc sử dụng công cụ và gọi công cụ, nhưng đối với mục đích của thử nghiệm này, chúng tôi muốn đánh giá một agent thực tế mà chúng tôi thực sự sử dụng. “Agent này là trợ lý email nội bộ của chúng tôi, chịu trách nhiệm cho hai lĩnh vực công việc chính – trả lời và lên lịch các yêu cầu cuộc họp và hỗ trợ khách hàng với các câu hỏi của họ.”

Các thông số của thử nghiệm LangChain

LangChain chủ yếu sử dụng các ReAct agent dựng sẵn thông qua nền tảng LangGraph của mình. Các agent này có các mô hình ngôn ngữ lớn (LLM) gọi công cụ, trở thành một phần của bài kiểm tra điểm chuẩn. Các LLM này bao gồm Claude 3.5 Sonnet của Anthropic, Llama-3.3-70B của Meta và bộ ba mô hình từ OpenAI, GPT-4o, o1 và o3-mini. 

Công ty đã chia nhỏ quá trình thử nghiệm để đánh giá tốt hơn hiệu suất của trợ lý email đối với hai nhiệm vụ, tạo ra một danh sách các bước để nó tuân theo. Nó bắt đầu với khả năng hỗ trợ khách hàng của trợ lý email, xem xét cách agent chấp nhận email từ khách hàng và trả lời bằng một câu trả lời. 

LangChain đầu tiên đánh giá quỹ đạo gọi công cụ, hoặc các công cụ mà một agent khai thác. Nếu agent tuân theo đúng thứ tự, nó sẽ vượt qua bài kiểm tra. Tiếp theo, các nhà nghiên cứu yêu cầu trợ lý trả lời một email và sử dụng LLM để đánh giá hiệu suất của nó. 

Txl 1 13
Txl 1 14

Đối với lĩnh vực công việc thứ hai, lên lịch lịch, LangChain tập trung vào khả năng tuân theo hướng dẫn của agent. 

Các nhà nghiên cứu viết: “Nói cách khác, agent cần ghi nhớ các hướng dẫn cụ thể được cung cấp, chẳng hạn như chính xác thời điểm nó nên lên lịch các cuộc họp với các bên khác nhau. 

Làm quá tải agent

Sau khi xác định các thông số, LangChain bắt đầu gây căng thẳng và áp đảo agent trợ lý email. 

Nó đặt 30 nhiệm vụ cho mỗi nhiệm vụ lên lịch lịch và hỗ trợ khách hàng. Chúng được chạy ba lần (tổng cộng 90 lần chạy). Các nhà nghiên cứu đã tạo ra một agent lên lịch lịch và một agent hỗ trợ khách hàng để đánh giá tốt hơn các nhiệm vụ. 

LangChain giải thích: “Agent lên lịch lịch chỉ có quyền truy cập vào lĩnh vực lên lịch lịch và agent hỗ trợ khách hàng chỉ có quyền truy cập vào lĩnh vực hỗ trợ khách hàng. 

Sau đó, các nhà nghiên cứu đã thêm nhiều nhiệm vụ và công cụ miền hơn vào các agent để tăng số lượng trách nhiệm. Chúng có thể bao gồm từ nguồn nhân lực, đến đảm bảo chất lượng kỹ thuật, đến pháp lý và tuân thủ và một loạt các lĩnh vực khác. 

Suy giảm hướng dẫn của agent đơn lẻ

Sau khi chạy các đánh giá, LangChain nhận thấy rằng các agent đơn lẻ thường trở nên quá tải khi được yêu cầu làm quá nhiều việc. Chúng bắt đầu quên gọi các công cụ hoặc không thể phản hồi các tác vụ khi được cung cấp thêm hướng dẫn và ngữ cảnh. 

LangChain nhận thấy rằng các agent lên lịch lịch sử dụng GPT-4o “hoạt động kém hơn Claude-3.5-sonnet, o1 và o3 trên các kích thước ngữ cảnh khác nhau và hiệu suất giảm mạnh hơn so với các mô hình khác khi ngữ cảnh lớn hơn được cung cấp.” Hiệu suất của các trình lên lịch lịch GPT-4o giảm xuống 2% khi các miền tăng lên ít nhất bảy. 

Các mô hình khác cũng không khá hơn nhiều. Llama-3.3-70B quên gọi công cụ send_email, “vì vậy nó đã thất bại trong mọi trường hợp thử nghiệm.”

Txl 1 15

Chỉ Claude-3.5-sonnet, o1 và o3-mini đều nhớ gọi công cụ, nhưng Claude-3.5-sonnet hoạt động kém hơn hai mô hình OpenAI còn lại. Tuy nhiên, hiệu suất của o3-mini giảm khi các miền không liên quan được thêm vào hướng dẫn lên lịch.

Agent hỗ trợ khách hàng có thể gọi nhiều công cụ hơn, nhưng đối với thử nghiệm này, LangChain cho biết Claude-3.5-mini hoạt động tốt như o3-mini và o1. Nó cũng cho thấy sự sụt giảm hiệu suất nông hơn khi có thêm các miền. Tuy nhiên, khi cửa sổ ngữ cảnh mở rộng, mô hình Claude hoạt động kém hơn. 

GPT-4o cũng hoạt động kém nhất trong số các mô hình được thử nghiệm. 

LangChain lưu ý: “Chúng tôi thấy rằng khi có thêm ngữ cảnh được cung cấp, việc tuân theo hướng dẫn trở nên tồi tệ hơn. Một số nhiệm vụ của chúng tôi được thiết kế để tuân theo các hướng dẫn cụ thể (ví dụ: không thực hiện một hành động nhất định cho khách hàng có trụ sở tại EU). “Chúng tôi nhận thấy rằng những hướng dẫn này sẽ được các agent tuân theo thành công với ít miền hơn, nhưng khi số lượng miền tăng lên, những hướng dẫn này thường bị quên và các nhiệm vụ sau đó không thành công.”

Công ty cho biết họ đang khám phá cách đánh giá kiến trúc đa agent bằng phương pháp quá tải miền tương tự. 

LangChain đã đầu tư vào hiệu suất của các agent, vì nó đã giới thiệu khái niệm về “các agent xung quanh”, hoặc các agent chạy trong nền và được kích hoạt bởi các sự kiện cụ thể. Những thử nghiệm này có thể giúp bạn dễ dàng tìm ra cách tốt nhất để đảm bảo hiệu suất của agent. 

Tạo Content Tự Động Từ YouTube Với N8N: Giải Pháp Content Marketing Hiệu Quả

Bạn đang tìm kiếm một giải pháp để tạo nội dung một cách nhanh chóng và hiệu quả? Bạn muốn tận dụng nguồn video vô tận trên YouTube để phát triển website, fanpage Facebook và các nền tảng khác? Bài viết này sẽ hướng dẫn bạn cách tạo content tự động từ YouTube bằng công cụ mạnh mẽ N8N, giúp bạn tiết kiệm thời gian, công sức và tối ưu hóa chiến lược content marketing.

Giới Thiệu Tổng Quan về N8N và Khả Năng Tự Động Hóa Content YouTube

N8N là một nền tảng tự động hóa quy trình làm việc (workflow automation) mã nguồn mở, cho phép bạn kết nối các ứng dụng và dịch vụ khác nhau để tạo ra các quy trình tự động. Với N8N, bạn có thể dễ dàng tự động hóa việc lấy thông tin từ YouTube, chuyển đổi thành nội dung bài viết và đăng tải lên website hoặc các kênh truyền thông xã hội. Điều này giúp bạn:

  • Tiết kiệm thời gian và công sức: Thay vì thực hiện các thao tác thủ công, bạn có thể để N8N tự động hóa quy trình tạo content.
  • Tăng hiệu quả content marketing: Tạo ra số lượng lớn nội dung chất lượng, đa dạng, thu hút người đọc và tăng tương tác.
  • Nghiên cứu từ khóa hiệu quả: N8N giúp bạn dễ dàng tìm kiếm và phân tích các video YouTube liên quan đến từ khóa mục tiêu.
  • Tối ưu SEO: Nội dung được tạo tự động có thể được tối ưu hóa cho công cụ tìm kiếm, giúp tăng thứ hạng website.

Workflow 1: Nghiên Cứu Từ Khóa YouTube và Lưu Thông Tin Video

Workflow đầu tiên này tập trung vào việc nghiên cứu từ khóa trên YouTube và thu thập thông tin chi tiết về các video liên quan. Mục tiêu là tạo ra một cơ sở dữ liệu các video tiềm năng, giúp bạn dễ dàng lựa chọn và sử dụng cho các mục đích khác nhau.

Bước 1: Thêm Từ Khóa Cần Nghiên Cứu vào Notion

Sử dụng Notion làm công cụ quản lý từ khóa. Tạo một bảng (database) trong Notion và thêm các từ khóa bạn muốn nghiên cứu vào bảng này. Ví dụ:

Từ Khóa
Marketing online
SEO cho người mới bắt đầu
Content marketing

Bước 2: Lấy Video Tìm Kiếm từ YouTube bằng N8N

Trong N8N, sử dụng node “YouTube Search” để tìm kiếm các video trên YouTube dựa trên từ khóa đã thêm vào Notion. Cấu hình node này như sau:

  • Query: Sử dụng biểu thức để lấy từ khóa từ Notion.
  • Max Results: Số lượng video tối đa bạn muốn lấy (ví dụ: 20).

Node “YouTube Search” sẽ trả về danh sách các video phù hợp với từ khóa tìm kiếm.

Bước 3: Xử Lý Kết Quả và Lấy Thông Tin Chi Tiết

Sử dụng node “Function” để xử lý kết quả trả về từ “YouTube Search”. Trong node này, bạn cần thực hiện các thao tác sau:

  • Tách dữ liệu: Tách các trường dữ liệu quan trọng như video ID, tiêu đề, mô tả, ngày đăng, tên kênh, ID kênh.
  • Lấy thông tin video chi tiết: Sử dụng node “YouTube” (với operation “Get Video”) để lấy thông tin chi tiết về từng video dựa trên video ID.

Bước 4: Lưu Thông Tin vào Airtable

Sử dụng node “Airtable” để lưu thông tin chi tiết của các video vào một bảng trong Airtable. Đảm bảo rằng bạn đã tạo một bảng trong Airtable với các trường tương ứng với các thông tin bạn muốn lưu (ví dụ: Video ID, Tiêu đề, Mô tả, Ngày đăng, Tên kênh, ID kênh).

Sau khi hoàn thành workflow này, bạn sẽ có một bảng trong Airtable chứa thông tin chi tiết của các video YouTube liên quan đến từ khóa bạn đã nghiên cứu. Điều này giúp bạn dễ dàng phân tích, lựa chọn và sử dụng các video này cho các mục đích khác nhau.

Workflow 2: Tạo Content Tự Động Từ YouTube Transcript và Đăng Lên Website WordPress

Workflow này tập trung vào việc tự động tạo nội dung bài viết từ transcript (phụ đề) của video YouTube và đăng tải lên website WordPress. Đây là một cách tuyệt vời để tận dụng nội dung video có sẵn và biến chúng thành nội dung bài viết hấp dẫn.

Bước 1: Lấy Đường Dẫn Video YouTube từ Notion

Tương tự như workflow trước, sử dụng Notion để quản lý danh sách các video YouTube bạn muốn tạo content tự động. Thêm đường dẫn (URL) của các video này vào một bảng trong Notion.

Bước 2: Lấy Thông Tin Video và Transcript từ YouTube

Trong N8N, sử dụng các node sau để lấy thông tin video và transcript:

  • HTTP Request: Lấy thông tin video từ YouTube API dựa trên đường dẫn video.
  • YouTube Transcript: Lấy transcript của video (nếu có).

Lưu ý: Để lấy transcript, video YouTube phải có phụ đề. Bạn có thể tự tạo phụ đề hoặc sử dụng phụ đề tự động do YouTube tạo ra.

Bước 3: Xử Lý Transcript và Tạo Content

Đây là bước quan trọng nhất trong workflow này. Sử dụng node “Function” để xử lý transcript và tạo ra nội dung bài viết. Bạn có thể thực hiện các thao tác sau:

  • Loại bỏ các ký tự thừa: Loại bỏ các ký tự đặc biệt, dấu câu không cần thiết trong transcript.
  • Chia nhỏ transcript thành các đoạn văn: Chia transcript thành các đoạn văn ngắn, dễ đọc.
  • Thêm tiêu đề và mô tả: Sử dụng tiêu đề và mô tả của video làm tiêu đề và mô tả cho bài viết.
  • Chèn từ khóa: Chèn các từ khóa mục tiêu vào nội dung bài viết một cách tự nhiên.

Bạn có thể sử dụng các kỹ thuật xử lý ngôn ngữ tự nhiên (NLP) để cải thiện chất lượng nội dung bài viết. Ví dụ:

  • Tóm tắt nội dung: Sử dụng thuật toán tóm tắt để tạo ra một bản tóm tắt ngắn gọn của video.
  • Tìm kiếm và thay thế từ đồng nghĩa: Thay thế các từ ngữ trong transcript bằng các từ đồng nghĩa để tránh trùng lặp.

Bước 4: Đăng Bài Lên Website WordPress

Sử dụng node “WordPress” để đăng bài viết lên website WordPress của bạn. Cấu hình node này như sau:

  • URL: Địa chỉ website WordPress của bạn.
  • Username: Tên người dùng WordPress.
  • Password: Mật khẩu WordPress.
  • Title: Tiêu đề bài viết.
  • Content: Nội dung bài viết đã được tạo ở bước 3.
  • Status: Trạng thái bài viết (ví dụ: “publish” để đăng ngay lập tức, “draft” để lưu bản nháp).

Bước 5: Thông Báo và Cập Nhật Trạng Thái

Sau khi đăng bài viết lên WordPress, bạn có thể sử dụng các node sau để thông báo và cập nhật trạng thái:

  • Email: Gửi email thông báo cho bạn biết bài viết đã được đăng thành công.
  • Airtable: Cập nhật trạng thái của video trong bảng Airtable (ví dụ: “Đã đăng”).
  • Notion: Cập nhật trạng thái của video trong bảng Notion (ví dụ: “Đã đăng”).

Workflow 3: Lấy Dữ Liệu Tự Động Từ Kênh YouTube Bằng RSS

Workflow này sử dụng RSS feed để tự động lấy dữ liệu từ một kênh YouTube cụ thể. Điều này cho phép bạn theo dõi các video mới nhất từ kênh yêu thích của mình và tự động tạo content từ chúng.

Bước 1: Lấy Đường Dẫn RSS Feed của Kênh YouTube

Để lấy đường dẫn RSS feed của một kênh YouTube, bạn cần biết Channel ID của kênh đó. Bạn có thể tìm thấy Channel ID trong URL của trang kênh YouTube. Ví dụ:

https://www.youtube.com/channel/UCxxxxxxxxxxxxxxxxxxxxxxxx

Trong đó, UCxxxxxxxxxxxxxxxxxxxxxxxx là Channel ID.

Sau khi có Channel ID, bạn có thể tạo đường dẫn RSS feed như sau:

https://www.youtube.com/feeds/videos.xml?channel_id=UCxxxxxxxxxxxxxxxxxxxxxxxx

Bước 2: Sử Dụng Node “RSS” trong N8N

Trong N8N, sử dụng node “RSS” để lấy dữ liệu từ RSS feed của kênh YouTube. Cấu hình node này như sau:

  • Feed URL: Nhập đường dẫn RSS feed bạn đã tạo ở bước 1.
  • Polling Interval: Khoảng thời gian N8N sẽ kiểm tra RSS feed để tìm video mới (ví dụ: 15 phút).

Node “RSS” sẽ trả về danh sách các video mới nhất từ kênh YouTube.

Bước 3: Xử Lý Dữ Liệu và Tạo Content (Tương Tự Workflow 2)

Từ đây, bạn có thể tiếp tục xử lý dữ liệu và tạo content tương tự như Workflow 2: Lấy thông tin video và transcript, xử lý transcript, tạo nội dung bài viết và đăng lên website WordPress.

Lời Khuyên và Lưu Ý Khi Tạo Content Tự Động Từ YouTube

Mặc dù việc tạo content tự động từ YouTube có thể giúp bạn tiết kiệm thời gian và công sức, nhưng bạn cần lưu ý một số điều sau để đảm bảo chất lượng nội dung và tránh các vấn đề pháp lý:

  • Kiểm tra bản quyền: Đảm bảo rằng bạn có quyền sử dụng nội dung video YouTube cho mục đích của mình. Nếu video có bản quyền, bạn cần xin phép tác giả trước khi sử dụng.
  • Kiểm tra và chỉnh sửa nội dung: Nội dung được tạo tự động từ transcript có thể không hoàn hảo. Bạn cần kiểm tra và chỉnh sửa nội dung để đảm bảo tính chính xác, mạch lạc và hấp dẫn.
  • Tối ưu SEO: Đừng quên tối ưu hóa nội dung bài viết cho công cụ tìm kiếm bằng cách sử dụng các từ khóa mục tiêu, viết tiêu đề và mô tả hấp dẫn, và xây dựng liên kết nội bộ.
  • Thêm giá trị gia tăng: Thay vì chỉ sao chép transcript, hãy thêm giá trị gia tăng cho nội dung bằng cách cung cấp phân tích, bình luận, ví dụ hoặc các thông tin hữu ích khác.

Kết Luận

Tạo content tự động từ YouTube bằng N8N là một giải pháp hiệu quả để tận dụng nguồn video vô tận và phát triển chiến lược content marketing của bạn. Bằng cách tự động hóa quy trình nghiên cứu từ khóa, lấy transcript và đăng bài viết, bạn có thể tiết kiệm thời gian, công sức và tạo ra số lượng lớn nội dung chất lượng cao.

Hãy thử áp dụng các workflow được trình bày trong bài viết này và khám phá những lợi ích mà N8N có thể mang lại cho bạn. Chúc bạn thành công!

AI Agent: Cơ hội tăng trưởng doanh thu cho doanh nghiệp

Trong bối cảnh kinh doanh ngày càng cạnh tranh, việc áp dụng công nghệ mới là yếu tố then chốt để doanh nghiệp, đặc biệt là các doanh nghiệp nhỏ, có thể tồn tại và phát triển. Một trong những công nghệ đầy tiềm năng đó là AI Agent (hay còn gọi là Trợ lý ảo AI). Bài viết này sẽ đi sâu vào cách AI Agent có thể trở thành cơ hội mới cho doanh nghiệp nhỏ, giúp tối ưu hóa hoạt động, nâng cao trải nghiệm khách hàng và tăng trưởng doanh thu.

AI Agent cho doanh nghiệp nhỏ

Vấn Đề Mà Doanh Nghiệp Nhỏ Thường Gặp Phải

Doanh nghiệp nhỏ, đặc biệt là những doanh nghiệp mới khởi nghiệp hoặc chỉ có một vài nhân viên, thường phải đối mặt với rất nhiều khó khăn. Chủ doanh nghiệp và nhân viên phải đảm nhiệm nhiều vai trò khác nhau, từ thu hút khách hàng, trả lời thắc mắc, chăm sóc khách hàng cũ đến xử lý đơn hàng và các công việc hành chính khác. Điều này dẫn đến tình trạng quá tải, giảm hiệu suất làm việc và ảnh hưởng đến chất lượng dịch vụ.

Cụ thể, những vấn đề thường gặp bao gồm:

  • Thiếu nguồn lực: Doanh nghiệp nhỏ thường có nguồn lực hạn chế về tài chính, nhân sự và thời gian.
  • Quá tải công việc: Nhân viên phải đảm nhiệm nhiều vai trò, dẫn đến tình trạng quá tải và giảm hiệu suất.
  • Khó khăn trong việc chăm sóc khách hàng: Việc trả lời thắc mắc và chăm sóc khách hàng một cách nhanh chóng và hiệu quả là một thách thức lớn.
  • Khó khăn trong việc mở rộng quy mô: Việc quản lý và điều hành một doanh nghiệp nhỏ khi quy mô tăng lên có thể trở nên rất phức tạp.

AI Agent: Giải Pháp Cho Doanh Nghiệp Nhỏ

AI Agent, với khả năng tự động hóa các tác vụ, tương tác với khách hàng và học hỏi từ dữ liệu, có thể giúp doanh nghiệp nhỏ giải quyết những vấn đề trên một cách hiệu quả. Dưới đây là một số lợi ích cụ thể mà AI Agent mang lại:

Giải pháp AI Agent

1. Tự Động Hóa Các Tác Vụ

AI Agent có thể tự động hóa nhiều tác vụ lặp đi lặp lại, giúp giải phóng nhân viên để họ tập trung vào những công việc quan trọng hơn. Ví dụ, AI Agent có thể:

  • Trả lời câu hỏi thường gặp (FAQ): AI Agent có thể được lập trình để trả lời các câu hỏi thường gặp của khách hàng một cách nhanh chóng và chính xác.
  • Xử lý đơn hàng: AI Agent có thể tự động xử lý đơn hàng, từ việc xác nhận đơn hàng đến việc thông báo tình trạng giao hàng.
  • Đặt lịch hẹn: AI Agent có thể giúp khách hàng đặt lịch hẹn một cách dễ dàng và nhanh chóng.
  • Thu thập thông tin khách hàng: AI Agent có thể thu thập thông tin khách hàng thông qua các cuộc trò chuyện, giúp doanh nghiệp hiểu rõ hơn về nhu cầu và mong muốn của khách hàng.

Tự động hóa với AI Agent

2. Nâng Cao Trải Nghiệm Khách Hàng

AI Agent có thể tương tác với khách hàng 24/7, cung cấp hỗ trợ nhanh chóng và hiệu quả. Điều này giúp nâng cao trải nghiệm khách hàng và tăng sự hài lòng của khách hàng.

  • Phản hồi nhanh chóng: AI Agent có thể trả lời câu hỏi của khách hàng ngay lập tức, giúp khách hàng không phải chờ đợi lâu.
  • Hỗ trợ 24/7: AI Agent có thể cung cấp hỗ trợ cho khách hàng bất cứ lúc nào, kể cả ngoài giờ làm việc.
  • Cá nhân hóa trải nghiệm: AI Agent có thể được lập trình để cung cấp các câu trả lời và giải pháp phù hợp với từng khách hàng.

3. Tăng Doanh Thu

Bằng cách tự động hóa các tác vụ, nâng cao trải nghiệm khách hàng và thu thập thông tin khách hàng, AI Agent có thể giúp doanh nghiệp nhỏ tăng doanh thu. Ví dụ, AI Agent có thể:

  • Tăng tỷ lệ chuyển đổi: AI Agent có thể giúp khách hàng đưa ra quyết định mua hàng bằng cách cung cấp thông tin hữu ích và giải đáp thắc mắc của khách hàng.
  • Tăng giá trị đơn hàng: AI Agent có thể gợi ý các sản phẩm hoặc dịch vụ liên quan, giúp khách hàng mua thêm hàng.
  • Tăng khả năng giữ chân khách hàng: AI Agent có thể giúp doanh nghiệp xây dựng mối quan hệ tốt đẹp với khách hàng, từ đó tăng khả năng giữ chân khách hàng.

Tăng doanh thu nhờ AI Agent

4. Tiết Kiệm Chi Phí

Việc triển khai AI Agent có thể giúp doanh nghiệp nhỏ tiết kiệm chi phí, đặc biệt là chi phí nhân sự. AI Agent có thể thay thế cho một số nhân viên, giúp doanh nghiệp giảm chi phí tiền lương, bảo hiểm và các chi phí liên quan khác.

Ví Dụ Về Ứng Dụng AI Agent Trong Doanh Nghiệp Nhỏ

Có rất nhiều cách để doanh nghiệp nhỏ có thể ứng dụng AI Agent. Dưới đây là một vài ví dụ:

  • Cửa hàng trực tuyến: AI Agent có thể giúp khách hàng tìm kiếm sản phẩm, trả lời câu hỏi về sản phẩm, xử lý đơn hàng và theo dõi tình trạng giao hàng.
  • Nhà hàng: AI Agent có thể giúp khách hàng đặt bàn, đặt món ăn, thanh toán hóa đơn và cung cấp thông tin về thực đơn.
  • Phòng khám: AI Agent có thể giúp bệnh nhân đặt lịch hẹn, trả lời câu hỏi về dịch vụ y tế và cung cấp thông tin về bệnh tật.
  • Công ty bất động sản: AI Agent có thể giúp khách hàng tìm kiếm nhà, trả lời câu hỏi về bất động sản và đặt lịch hẹn xem nhà.

Lưu Ý Khi Triển Khai AI Agent

Mặc dù AI Agent mang lại nhiều lợi ích, nhưng doanh nghiệp nhỏ cần lưu ý một số điều khi triển khai:

  • Xác định rõ mục tiêu: Trước khi triển khai AI Agent, doanh nghiệp cần xác định rõ mục tiêu mà mình muốn đạt được.
  • Chọn lựa giải pháp phù hợp: Có rất nhiều giải pháp AI Agent khác nhau trên thị trường. Doanh nghiệp cần chọn lựa giải pháp phù hợp với nhu cầu và ngân sách của mình.
  • Đào tạo nhân viên: Nhân viên cần được đào tạo để có thể sử dụng AI Agent một cách hiệu quả.
  • Theo dõi và đánh giá hiệu quả: Doanh nghiệp cần theo dõi và đánh giá hiệu quả của AI Agent để có thể điều chỉnh và cải thiện.

Lưu ý khi triển khai AI Agent

Kết Luận

AI Agent là một công nghệ đầy tiềm năng có thể mang lại nhiều lợi ích cho doanh nghiệp nhỏ. Bằng cách tự động hóa các tác vụ, nâng cao trải nghiệm khách hàng và tăng doanh thu, AI Agent có thể giúp doanh nghiệp nhỏ tồn tại và phát triển trong bối cảnh kinh doanh ngày càng cạnh tranh. Nếu bạn là chủ một doanh nghiệp nhỏ, hãy cân nhắc việc triển khai AI Agent để tạo ra một lợi thế cạnh tranh và đạt được thành công lớn hơn.

Tự động hóa quy trình với N8N: Hướng dẫn cho người mới bắt đầu

Trong kỷ nguyên số, tự động hóa quy trình làm việc (workflow automation) không còn là một khái niệm xa lạ. Với sự trợ giúp của các công cụ mạnh mẽ như N8N, bạn hoàn toàn có thể đơn giản hóa và tối ưu hóa các tác vụ lặp đi lặp lại, giải phóng thời gian và nguồn lực để tập trung vào những công việc quan trọng hơn. Bài viết này sẽ giới thiệu chi tiết về N8N, cách nó hoạt động và cách bạn có thể tận dụng nó để tự động hóa mọi thứ.

Workflow Automation Là Gì?

Trước khi đi sâu vào N8N, hãy cùng tìm hiểu về workflow automation. Workflow, hay quy trình làm việc, là một chuỗi các bước cần thiết để hoàn thành một nhiệm vụ cụ thể. Workflow automation là quá trình sử dụng công nghệ để tự động hóa các bước này, giảm thiểu sự can thiệp thủ công và tăng hiệu quả.

Ví dụ, quy trình xử lý đơn hàng có thể bao gồm các bước như nhận đơn hàng, kiểm tra thông tin khách hàng, xác nhận thanh toán, chuẩn bị hàng hóa, giao hàng và gửi thông báo cho khách hàng. Với workflow automation, bạn có thể tự động hóa hầu hết các bước này, từ đó giảm thiểu thời gian xử lý đơn hàng và cải thiện trải nghiệm khách hàng.

Giới Thiệu Về N8N: Công Cụ Tự Động Hóa Mạnh Mẽ

N8N là gì?

N8N (phát âm là n-eight-n) là một nền tảng workflow automation mã nguồn mở, cho phép bạn kết nối các ứng dụng yêu thích, chuyển dữ liệu giữa chúng và tự động hóa nhiều quy trình khác nhau. Với giao diện trực quan và khả năng tùy biến cao, N8N là một công cụ lý tưởng cho cả người dùng kỹ thuật và người dùng không chuyên về code.

Ưu điểm của N8N:

  • Mã nguồn mở: Hoàn toàn miễn phí để sử dụng và tùy chỉnh.
  • Khả năng tùy biến cao: Dễ dàng tạo ra các workflow phức tạp phù hợp với nhu cầu cụ thể của bạn.
  • Kết nối đa dạng: Hỗ trợ kết nối với hàng trăm ứng dụng và dịch vụ phổ biến.
  • Giao diện trực quan: Dễ dàng thiết kế và quản lý workflow với giao diện kéo thả.
  • Khả năng mở rộng: Có thể mở rộng tính năng bằng cách sử dụng code (JavaScript).

Tại Sao Nên Sử Dụng N8N?

Logo N8N

Workflow automation mang lại nhiều lợi ích cho doanh nghiệp và cá nhân, bao gồm:

  • Tăng hiệu quả: Tự động hóa các tác vụ lặp đi lặp lại giúp bạn tiết kiệm thời gian và công sức.
  • Giảm chi phí: Giảm thiểu sự can thiệp thủ công giúp bạn tiết kiệm chi phí nhân công.
  • Nâng cao năng suất: Tự động hóa quy trình làm việc giúp bạn tập trung vào những công việc quan trọng hơn.
  • Giảm thiểu sai sót: Tự động hóa giúp giảm thiểu sai sót do con người gây ra.
  • Cải thiện trải nghiệm khách hàng: Tự động hóa quy trình giúp bạn phản hồi nhanh chóng và hiệu quả hơn với khách hàng.

Ứng Dụng Của N8N Trong Thực Tế

N8N có thể được sử dụng để tự động hóa nhiều quy trình khác nhau, bao gồm:

  • Marketing automation: Tự động hóa việc gửi email marketing, quản lý mạng xã hội, thu thập dữ liệu khách hàng.
  • Sales automation: Tự động hóa việc quản lý khách hàng tiềm năng, theo dõi giao dịch, tạo báo giá.
  • Customer support automation: Tự động hóa việc trả lời câu hỏi thường gặp, xử lý yêu cầu hỗ trợ, thu thập phản hồi của khách hàng.
  • E-commerce automation: Tự động hóa việc xử lý đơn hàng, quản lý kho hàng, gửi thông báo cho khách hàng.
  • Project management automation: Tự động hóa việc tạo nhiệm vụ, theo dõi tiến độ, gửi thông báo cho thành viên nhóm.

Ví dụ cụ thể, bạn có thể sử dụng N8N để:

  • Tự động dán nhãn email, tự động trả lời email và tự động lưu file đính kèm cho hóa đơn.
  • Tự động nghiên cứu, tạo nội dung số, xuất bản tin lên website và chia sẻ lên các kênh phân phối.
  • Tự động xử lý đơn hàng, gửi email thông báo cho khách hàng và admin.

N8N So Với Các Công Cụ Tự Động Hóa Khác

So sánh N8N với Make

Trên thị trường hiện nay có rất nhiều công cụ workflow automation khác nhau, như Zapier, Integromat (Make), và Microsoft Power Automate. Vậy, N8N có gì khác biệt?

Điểm khác biệt lớn nhất của N8N là tính mã nguồn mở. Điều này mang lại cho người dùng sự linh hoạt và kiểm soát cao hơn so với các công cụ độc quyền. Bạn có thể tùy chỉnh N8N theo nhu cầu cụ thể của mình, mở rộng tính năng và tích hợp nó với các ứng dụng khác một cách dễ dàng.

Ngoài ra, N8N cũng có chính sách giá cả cạnh tranh hơn so với các công cụ khác. Với phiên bản mã nguồn mở, bạn có thể sử dụng N8N hoàn toàn miễn phí. Nếu bạn cần thêm tính năng và hỗ trợ, bạn có thể trả phí cho phiên bản cloud hoặc tự host N8N trên server của mình.

Dưới đây là so sánh tổng quan giữa N8N, Zapier và Code:

  • Zapier: No-code, dễ sử dụng, thân thiện với người dùng, nhưng giá cả có thể cao và khả năng tùy biến hạn chế.
  • Code: Tự do tùy biến, chi phí thấp (hoặc miễn phí), nhưng đòi hỏi kiến thức về lập trình.
  • N8N: Low-code, kết hợp sự dễ sử dụng của Zapier và khả năng tùy biến của Code.

Tóm lại, N8N là một lựa chọn tuyệt vời cho những người dùng muốn một công cụ tự động hóa mạnh mẽ, linh hoạt và tiết kiệm chi phí.

Hướng Dẫn Bắt Đầu Với N8N

Để bắt đầu sử dụng N8N, bạn có thể làm theo các bước sau:

  1. Truy cập website chính thức của N8N: https://n8n.io/
  2. Tạo tài khoản: Bạn có thể đăng ký tài khoản miễn phí để dùng thử N8N trên cloud hoặc tự host N8N trên server của mình.
  3. Tìm hiểu giao diện: Làm quen với giao diện kéo thả và các thành phần cơ bản của N8N.
  4. Tạo workflow đầu tiên: Bắt đầu với một workflow đơn giản để làm quen với cách N8N hoạt động.
  5. Khám phá các node: Tìm hiểu về các node khác nhau và cách chúng có thể được sử dụng để kết nối các ứng dụng và dịch vụ.
  6. Tùy chỉnh workflow: Thử nghiệm với các tùy chọn và thiết lập khác nhau để tạo ra các workflow phức tạp hơn.

Để giúp bạn bắt đầu dễ dàng hơn, dưới đây là hướng dẫn chi tiết cách tạo một workflow đơn giản để gửi email thông báo khi có đơn hàng mới trên Google Sheets:

  1. Tạo Google Sheet: Tạo một Google Sheet để chứa thông tin về đơn hàng (ví dụ: Order ID, Product, Status, Date, Price, Email, Name).
  2. Tạo workflow mới trong N8N: Click vào nút “Create new” để tạo một workflow mới.
  3. Thêm trigger: Thêm một trigger “Google Sheets” để theo dõi các thay đổi trên Google Sheet. Chọn trigger “On Row Updated” để kích hoạt workflow khi có hàng mới được thêm vào.
  4. Kết nối với Google Sheets: Kết nối N8N với tài khoản Google của bạn và chọn Google Sheet bạn muốn theo dõi.
  5. Thêm action: Thêm một action “Gmail” để gửi email thông báo.
  6. Kết nối với Gmail: Kết nối N8N với tài khoản Gmail của bạn.
  7. Thiết lập email: Thiết lập các thông tin về email (ví dụ: To, Subject, Content). Sử dụng các biến để chèn thông tin từ Google Sheet vào email.
  8. Kích hoạt workflow: Bật workflow để nó bắt đầu hoạt động.

Bây giờ, mỗi khi có một hàng mới được thêm vào Google Sheet, N8N sẽ tự động gửi một email thông báo cho bạn.

Sử Dụng API Trong N8N

Để tận dụng tối đa sức mạnh của N8N, bạn cần hiểu về API (Application Programming Interface). API là một giao diện cho phép các ứng dụng khác nhau giao tiếp và trao đổi thông tin với nhau.

Trong N8N, bạn có thể sử dụng API để kết nối với các ứng dụng và dịch vụ không được hỗ trợ trực tiếp bởi các node có sẵn. Để làm điều này, bạn có thể sử dụng node “HTTP Request” để gửi các yêu cầu HTTP đến API và xử lý các phản hồi.

Để sử dụng API hiệu quả, bạn cần:

  • Tìm hiểu về API bạn muốn sử dụng: Đọc tài liệu API để hiểu cách nó hoạt động, các yêu cầu và phản hồi có sẵn.
  • Sử dụng node HTTP Request: Cấu hình node HTTP Request với các thông tin cần thiết (URL, method, headers, body).
  • Xử lý phản hồi API: Sử dụng các node khác để xử lý phản hồi API và trích xuất dữ liệu bạn cần.

Ví Dụ Thực Tế: Tự Động Tạo và Xuất Bản Nội Dung Với AI

Tự động tạo nội dung với AI

Để minh họa sức mạnh của N8N, hãy cùng xem xét một ví dụ thực tế: tự động tạo và xuất bản nội dung với sự giúp đỡ của AI.

Quy trình này có thể bao gồm các bước sau:

  1. Nhận chủ đề: Nhận một chủ đề từ người dùng (ví dụ: thông qua chat).
  2. Nghiên cứu: Sử dụng API của Perplexity AI để tìm kiếm thông tin liên quan đến chủ đề.
  3. Viết bài: Sử dụng API của OpenAI để viết một bài blog dựa trên kết quả nghiên cứu.
  4. Xuất bản: Sử dụng API của WordPress để đăng bài blog lên website.

Với N8N, bạn có thể tự động hóa toàn bộ quy trình này, từ đó tạo ra nội dung chất lượng một cách nhanh chóng và hiệu quả.

Trong ví dụ này, chúng ta đã sử dụng API của Perplexity AI và OpenAI. Để sử dụng các API này, bạn cần:

  • Tạo tài khoản và mua credit (nếu cần).
  • Tìm hiểu về API: Đọc tài liệu API để hiểu cách nó hoạt động.
  • Sử dụng node HTTP Request: Cấu hình node HTTP Request với các thông tin cần thiết (URL, method, headers, body).
  • Xử lý phản hồi API: Sử dụng các node khác để xử lý phản hồi API và trích xuất dữ liệu bạn cần.

Lời Kết

N8N là một công cụ workflow automation mạnh mẽ và linh hoạt, có thể giúp bạn tự động hóa nhiều quy trình khác nhau và giải phóng thời gian để tập trung vào những công việc quan trọng hơn. Với giao diện trực quan, khả năng tùy biến cao và chính sách giá cả cạnh tranh, N8N là một lựa chọn tuyệt vời cho cả người dùng kỹ thuật và người dùng không chuyên về code.

Hy vọng bài viết này đã cung cấp cho bạn những thông tin hữu ích về N8N và cách bạn có thể tận dụng nó để tự động hóa mọi thứ. Hãy bắt đầu khám phá N8N ngay hôm nay và khám phá những khả năng vô tận của nó!

Gumloop – Nền tảng tự động hóa quy trình làm việc với AI: Hướng dẫn chi tiết từ A-Z

Trong kỷ nguyên số, tự động hóa quy trình làm việc là chìa khóa để nâng cao năng suất và hiệu quả. Với sự trợ giúp của trí tuệ nhân tạo (AI), việc này trở nên dễ dàng hơn bao giờ hết, ngay cả khi bạn không có kiến thức về lập trình. Bài viết này sẽ hướng dẫn bạn cách xây dựng một AI Agent để tự động hóa các tác vụ, dựa trên nền tảng Gumloop, một công cụ mạnh mẽ cho phép bạn tạo ra các quy trình làm việc AI mà không cần viết bất kỳ dòng code nào. Từ khóa chính của bài viết này là tự động hóa quy trình làm việc.

Tự động hóa quy trình làm việc

Gumloop là gì?

Gumloop là một nền tảng tự động hóa quy trình làm việc dựa trên AI, cho phép bạn tạo ra các AI Agent để thực hiện các tác vụ khác nhau. Nó hoạt động bằng cách kết nối các “node” (các bước) lại với nhau, mỗi node thực hiện một chức năng cụ thể, từ đọc email đến phân tích dữ liệu hoặc tương tác với các ứng dụng khác. Điều đặc biệt là bạn không cần phải viết code để làm điều này; giao diện trực quan của Gumloop cho phép bạn kéo và thả các node, cấu hình chúng và kết nối chúng lại với nhau để tạo ra một quy trình làm việc hoàn chỉnh.

Gumloop - Nền tảng tự động hóa quy trình làm việc

Tại sao nên sử dụng Gumloop để tự động hóa quy trình làm việc?

Có nhiều lý do để bạn cân nhắc sử dụng Gumloop để tự động hóa quy trình làm việc:

  • Không cần code: Đây là ưu điểm lớn nhất của Gumloop. Bạn không cần phải là một lập trình viên để tạo ra các quy trình làm việc AI phức tạp.
  • Dễ sử dụng: Giao diện trực quan và thân thiện giúp bạn dễ dàng làm quen và sử dụng Gumloop.
  • Linh hoạt: Gumloop có thể được sử dụng để tự động hóa nhiều loại tác vụ khác nhau, từ marketing và bán hàng đến hỗ trợ khách hàng và quản lý dự án.
  • Tích hợp: Gumloop tích hợp với nhiều ứng dụng phổ biến như Gmail, Slack, Airtable, Notion và nhiều ứng dụng khác, giúp bạn dễ dàng kết nối các quy trình làm việc của mình với các công cụ bạn đã sử dụng.
  • Mạnh mẽ: Gumloop sử dụng các mô hình ngôn ngữ lớn (LLMs) mạnh mẽ để cung cấp khả năng AI tiên tiến, như phân tích dữ liệu, tóm tắt văn bản và tạo nội dung.

Ưu điểm của Gumloop

Các tính năng chính của Gumloop

Gumloop cung cấp một loạt các tính năng mạnh mẽ để giúp bạn tự động hóa quy trình làm việc một cách hiệu quả:

  • Hub: Nơi bạn có thể quản lý tất cả các quy trình làm việc của mình.
  • Nodes: Các bước riêng lẻ trong quy trình làm việc của bạn, mỗi node thực hiện một chức năng cụ thể.
  • AI Steps: Các node sử dụng AI để thực hiện các tác vụ như phân tích dữ liệu, tóm tắt văn bản, tạo nội dung và nhiều hơn nữa.
  • Integrations: Khả năng kết nối với các ứng dụng khác như Gmail, Slack, Airtable, Notion và nhiều ứng dụng khác.
  • Subflows: Cho phép bạn tạo ra các quy trình làm việc con có thể tái sử dụng trong các quy trình làm việc lớn hơn.
  • Webhooks: Cho phép bạn kích hoạt các quy trình làm việc Gumloop từ các ứng dụng khác thông qua API.
  • Loop Mode: Cho phép bạn chạy một quy trình làm việc nhiều lần, với các đầu vào khác nhau.
  • Templates: Cung cấp các quy trình làm việc được tạo sẵn mà bạn có thể sử dụng như một điểm khởi đầu.
  • Interfaces: Cho phép bạn tạo ra các giao diện người dùng tùy chỉnh cho các quy trình làm việc của mình.
  • Custom Nodes: Cho phép bạn tạo ra các node tùy chỉnh để thực hiện các chức năng cụ thể mà Gumloop không hỗ trợ sẵn.
  • Chrome Extension: Cho phép bạn chạy các quy trình làm việc Gumloop trực tiếp từ trình duyệt Chrome.

Các tính năng chính của Gumloop

Hướng dẫn xây dựng quy trình tự động hóa với Gumloop

Dưới đây là một ví dụ về cách bạn có thể sử dụng Gumloop để tự động hóa quy trình làm việc:

  1. Đọc email từ Gmail: Sử dụng node Gmail để đọc các email từ hộp thư đến của bạn.
  2. Phân tích nội dung email: Sử dụng node AI để phân tích nội dung email và xác định xem nó có phải là một yêu cầu hỗ trợ khách hàng hay không.
  3. Tạo ticket hỗ trợ: Nếu email là một yêu cầu hỗ trợ khách hàng, sử dụng node để tạo một ticket hỗ trợ mới trong hệ thống quản lý ticket của bạn (ví dụ: Zendesk, Jira).
  4. Gửi thông báo Slack: Sử dụng node Slack để gửi một thông báo đến kênh Slack của nhóm hỗ trợ, thông báo về ticket hỗ trợ mới.

Ví dụ về các quy trình tự động hóa khác có thể xây dựng với Gumloop

Gumloop có thể được sử dụng để xây dựng nhiều loại quy trình tự động hóa quy trình làm việc khác nhau, bao gồm:

  • Tự động tạo nội dung blog: Lấy transcript từ video YouTube, tóm tắt nó và tạo ra một bài viết blog hoàn chỉnh.
  • Phân tích đối thủ cạnh tranh: Thu thập dữ liệu về quảng cáo Facebook của đối thủ, phân tích chúng và tạo ra một báo cáo về chiến lược quảng cáo của họ.
  • Tuyển dụng nhân viên: Tự động tìm kiếm ứng viên tiềm năng trên LinkedIn, thu thập thông tin về họ và gửi email cá nhân hóa cho họ.
  • Quản lý lịch trình: Tự động tạo các sự kiện lịch từ email và gửi thông báo nhắc nhở.
  • Xử lý hóa đơn: Tự động trích xuất thông tin từ hóa đơn và lưu chúng vào một bảng tính.

Các ví dụ về quy trình tự động hóa với Gumloop

Cách Gumloop giúp doanh nghiệp tăng trưởng

Tự động hóa quy trình làm việc với Gumloop có thể giúp doanh nghiệp tăng trưởng bằng nhiều cách:

  • Tiết kiệm thời gian và chi phí: Tự động hóa các tác vụ tẻ nhạt và lặp đi lặp lại giúp nhân viên tập trung vào các công việc quan trọng hơn, từ đó tiết kiệm thời gian và chi phí.
  • Nâng cao năng suất: Tự động hóa giúp quy trình làm việc trơn tru và hiệu quả hơn, từ đó nâng cao năng suất của nhân viên.
  • Cải thiện trải nghiệm khách hàng: Tự động hóa các tác vụ hỗ trợ khách hàng giúp phản hồi nhanh chóng và giải quyết vấn đề hiệu quả hơn, từ đó cải thiện trải nghiệm khách hàng.
  • Ra quyết định thông minh hơn: Tự động hóa việc thu thập và phân tích dữ liệu giúp doanh nghiệp có được thông tin chi tiết hơn về hoạt động của mình, từ đó đưa ra các quyết định thông minh hơn.
  • Tạo ra các sản phẩm và dịch vụ mới: Gumloop cho phép bạn xây dựng các sản phẩm và dịch vụ mới dựa trên AI mà không cần phải thuê các kỹ sư phần mềm.

Lời khuyên khi sử dụng Gumloop

Dưới đây là một vài lời khuyên để bạn tận dụng tối đa Gumloop để tự động hóa quy trình làm việc:

  • Bắt đầu với những tác vụ đơn giản: Đừng cố gắng tự động hóa mọi thứ cùng một lúc. Hãy bắt đầu với những tác vụ đơn giản và sau đó dần dần mở rộng phạm vi tự động hóa của bạn.
  • Sử dụng các template: Gumloop cung cấp nhiều template hữu ích mà bạn có thể sử dụng như một điểm khởi đầu.
  • Tìm hiểu về AI Steps: Các AI Steps là trái tim của Gumloop. Hãy tìm hiểu về các AI Steps khác nhau và cách chúng có thể giúp bạn tự động hóa các tác vụ của mình.
  • Tham gia cộng đồng: Gumloop có một cộng đồng người dùng tích cực, nơi bạn có thể đặt câu hỏi, chia sẻ ý tưởng và nhận trợ giúp.
  • Thử nghiệm và lặp lại: Đừng ngại thử nghiệm và lặp lại để tìm ra những quy trình làm việc tốt nhất cho doanh nghiệp của bạn.

Tương lai của tự động hóa quy trình làm việc với AI

Gumloop là một ví dụ điển hình về tương lai của tự động hóa quy trình làm việc. Với sự phát triển của AI, việc tự động hóa các tác vụ sẽ trở nên dễ dàng hơn và mạnh mẽ hơn bao giờ hết. Các doanh nghiệp sẽ ngày càng sử dụng AI để tự động hóa các quy trình làm việc của mình, từ đó tiết kiệm thời gian và chi phí, nâng cao năng suất và cải thiện trải nghiệm khách hàng.

Tự động hóa quy trình làm việc là một yếu tố quan trọng để thành công trong kỷ nguyên số. Gumloop là một công cụ mạnh mẽ và dễ sử dụng, cho phép bạn tạo ra các AI Agent để tự động hóa các tác vụ khác nhau mà không cần viết code. Bằng cách sử dụng Gumloop, bạn có thể tiết kiệm thời gian và chi phí, nâng cao năng suất và cải thiện trải nghiệm khách hàng. Hãy bắt đầu khám phá Gumloop ngay hôm nay và khám phá những tiềm năng vô tận của tự động hóa quy trình làm việc với AI.

Đừng bỏ lỡ Chế độ Nghiên cứu Sâu của Google Gemini: 8 Ví dụ về Báo cáo Thông tin

Trong khi phần lớn thế giới AI và kinh doanh đang tập trung — giai thoại và về số lượng bài viết và tin nhắn đang được viết/đăng — vào OpenAI và DeepSeek, điều đáng nhớ là có nhiều công cụ AI thú vị và có khả năng cao khác từ các phòng thí nghiệm đối thủ.

Ví dụ: gần đây tôi đã bắt gặp rất nhiều bài đăng về OpenAI’s o3-powered Deep Research mode, một tác nhân AI lý luận mới thực hiện nghiên cứu web sâu rộng thay mặt cho người dùng và biên dịch nó thành các báo cáo gọn gàng và ngăn nắp, được trích dẫn đầy đủ. Điều này là tự nhiên vì nó là một sản phẩm tương đối mới (được công bố vào đầu tháng này) và OpenAI vẫn là một trong những nhà cung cấp mô hình AI được đánh giá cao và sử dụng rộng rãi nhất. Thêm vào đó, CEO Sam Altman gần đây đã chia sẻ kế hoạch cung cấp sản phẩm này bên ngoài gói đăng ký ChatGPT Pro trị giá 200 đô la mỗi tháng hiện tại, ít nhất là trên cơ sở dùng thử có giới hạn.

Tuy nhiên, đối với những người muốn thử sử dụng AI để thực hiện Nghiên cứu sâu và viết báo cáo cho bạn, có một mô hình khác đáng để kiểm tra mà không cần chờ Nghiên cứu sâu của OpenAI có mặt trên các cấp đăng ký phải chăng hơn hoặc trả 200 đô la mỗi tháng cho gói ChatGPT Pro.

Chế độ Nghiên cứu sâu của riêng gã khổng lồ tìm kiếm Google, được cung cấp bởi mô hình Gemini 1.5 Pro thế hệ trước, hiện có sẵn trên chatbot Gemini của Google trực tuyến thông qua gói Google One AI Premium (~20 đô la Mỹ mỗi tháng) và thực hiện nhiều chức năng tương tự như Nghiên cứu sâu của OpenAI với chi phí hàng tháng chỉ bằng 1/10. Google thực sự cung cấp tháng đầu tiên miễn phí, hiện tại.

Cách sử dụng Nghiên cứu sâu của Google để tạo báo cáo trong vài phút

Để truy cập, hãy đăng ký gói Google One AI Premium bằng liên kết trên, sau đó điều hướng đến gemini.google.com, nhấp vào menu thả xuống có nhãn “Gemini Advanced” ở góc trên bên trái và chọn “1.5 Pro with Deep Research.” Mọi truy vấn bạn nhập vào thanh nhập ở dưới cùng sau đó sẽ bắt đầu chế độ Nghiên cứu sâu.

Cho dù đó là nghiên cứu các chủ đề học thuật như xung đột trong suốt lịch sử, hay khoa học về các vật liệu mới như graphene, hay biến động thị trường, hay đưa ra các kế hoạch kinh doanh cụ thể để sản xuất hàng loạt một sản phẩm hàng tiêu dùng nhỏ vật lý mới, việc tôi sử dụng thực tế Nghiên cứu sâu của Google trong vài ngày qua đã tạo ra các báo cáo thông tin về một loạt các chủ đề, hoàn chỉnh với các trích dẫn và giải thích được xây dựng tốt về các chủ đề được thảo luận.

Ngay cả những chủ đề gây tranh cãi mà các mô hình AI khác thường từ chối tham gia — chẳng hạn như chiến dịch quân sự gần đây của Israel ở Gaza và liệu nó có đủ điều kiện là một cuộc diệt chủng hay không, hoặc việc đối xử với người chuyển giới trong suốt lịch sử và trong thời gian gần đây — Nghiên cứu sâu của Google sẽ cố gắng giải quyết bằng chứng từ nhiều nguồn uy tín khác nhau, mặc dù có một chút kỹ thuật nhanh chóng để vượt qua sự phản kháng ban đầu.

Tôi đặc biệt khuyến khích tất cả và bất kỳ nhà lãnh đạo doanh nghiệp nào, đặc biệt là những người trong lĩnh vực “công việc tri thức” hoặc sản xuất, hãy thử Nghiên cứu sâu của Google: yêu cầu nó tạo báo cáo về các chủ đề liên quan đến ngành của bạn và yêu cầu nó xác định các cơ hội mới hoặc thông tin chi tiết hữu ích để phát triển doanh nghiệp của bạn và đạt được hiệu quả, điều mà bạn có thể đã bỏ lỡ.

Về cơ bản, hãy coi nó như một nhà nghiên cứu hữu ích mới trong nhóm của bạn, đưa ra một số hướng dẫn dưới dạng một đoạn văn (hoặc một vài đoạn) và để nó biên dịch báo cáo cho bạn — của tôi mất từ vài giây đến dưới 10 phút. Tôi thực sự tin rằng bạn sẽ ấn tượng với kết quả và có thể thấy nó thay đổi quy trình làm việc và cách tiếp cận của bạn tốt hơn.

Hãy xem các ví dụ về 8 báo cáo tôi đã tạo bằng Nghiên cứu sâu của Google bên dưới, hoàn chỉnh với lời nhắc ban đầu và tự mình thử. Đây là tất cả các báo cáo thô, chưa chỉnh sửa được tạo trực tiếp bởi Nghiên cứu sâu của Google do Gemini 1.5 Pro cung cấp.

Tôi nên nhanh chóng nói thêm rằng tôi không được Google trả tiền cho bài đăng này hoặc bất kỳ công việc nào khác và đơn giản là một nhà báo / người đam mê công nghệ theo hiến pháp, người thích thử nghiệm các sản phẩm và dịch vụ mới và xem liệu chúng có thể hữu ích cho tôi và kho kiến thức cá nhân của tôi hay không.

1. Nghiên cứu giấc ngủ

Lời nhắc: “Biên soạn cho tôi một báo cáo tham chiếu chéo các nghiên cứu hiện hành khác nhau và bất kỳ thông tin khoa học áp dụng nào khác về độ dài giấc ngủ mỗi đêm và lý do tại sao một số người có thể cần ngủ ít hơn hoặc nhiều hơn những người khác, bất kỳ cơ sở di truyền nào cho điều này và tác động sức khỏe của việc ngủ ít cũng như liệu những người ngủ ít có xu hướng chịu đựng những điều này hay có di truyền bảo vệ họ khỏi tác động của việc ngủ ít hay không.”

Kết quả: “ Sleep Duration, Individual Variability, and Health Consequences: A Comprehensive Review “

2. Nghiên cứu về sự bùng nổ và phá sản kinh tế

Lời nhắc: Các thị trường trên toàn cầu và cho từng quốc gia và hàng hóa được biết đến là có đỉnh và đáy, với các sự kiện “thiên nga đen” đột ngột thường thúc đẩy hoạt động kinh tế đi xuống. Nghiên cứu những điều này trong suốt lịch sử, từ Cơn sốt hoa tulip ở Amsterdam đến Đại suy thoái và Khủng hoảng tài chính toàn cầu và Suy thoái toàn cầu tiếp theo, cộng với bất kỳ ví dụ đáng chú ý nào khác bạn có thể tìm thấy và thảo luận bất kỳ điểm chung chồng chéo nào trong các nguyên nhân gây ra sự suy giảm và hồi sinh của thị trường, và cũng là những thị trường nào tiếp tục tăng trưởng và phát triển mạnh trong môi trường suy thoái và suy thoái.”

Kết quả: “ Peaks, Valleys, and Black Swans: An Analysis of Market Crashes and Thriving Sectors in Economic Downturns “

3. Sản xuất một sản phẩm tiêu dùng sản xuất hàng loạt mới

Lời nhắc: Tôi có ý tưởng về một chiếc móc khóa đa năng nhỏ (dài khoảng 3-4 inch, dày 1 inch) mới mà tôi muốn sản xuất hàng loạt và bán ở Hoa Kỳ (và lý tưởng nhất là ở hầu hết các quốc gia vào một thời điểm nào đó). Nó phải được làm bằng một vật liệu chắc chắn, lý tưởng nhất là kim loại, nhưng một vật liệu có giá cả phải chăng và hiệu quả về chi phí cho mục đích của tôi. Lý tưởng nhất là tôi sẽ bán công cụ này với giá không quá 15,99 đô la mỗi chiếc cho người tiêu dùng cuối cùng và bỏ túi số tiền lợi nhuận tối đa mà tôi có thể sau tất cả các chi phí liên quan đến sản xuất, phân phối và tiếp thị trên mạng xã hội và các kênh kỹ thuật số khác (chủ yếu). Vui lòng nghiên cứu các nhà cung cấp và cách tôi có thể bắt đầu sản xuất hàng loạt điều này trong thời gian ngắn nhất có thể.”

Kết quả: “ Multitool Keyring Mass Production Business Plan

Đừng bỏ lỡ Chế độ Nghiên cứu Sâu của Google Gemini: 8 Ví dụ về Báo cáo Thông tin

4. Nghiên cứu vật liệu mới

Lời nhắc: “Đã có những đột phá trong các vật liệu mới như graphene và các siêu vật liệu hoặc vật liệu áp điện khác trong những năm gần đây. Nghiên cứu những vật liệu hứa hẹn nhất để ứng dụng thương mại và chuyển đổi xã hội — đặc biệt là mở khóa các khả năng mới — và giải thích tình trạng thương mại hóa hiện tại của chúng hoặc việc sử dụng rộng rãi hơn và bất kỳ trở ngại nào ngăn cản chúng, chẳng hạn như chi phí cao hoặc khó tổng hợp và các ý tưởng được đề xuất để khắc phục chúng.”

Kết quả: “ Breakthrough Materials: Graphene and Piezoelectric Materials Poised to Transform Society “

5. Hậu quả không lường trước của công nghệ và cách chúng áp dụng cho AI

Lời nhắc: Một trong những vấn đề tái diễn thú vị nhất nhưng thường ít được thảo luận nhất trong suốt lịch sử loài người liên quan đến “hậu quả không lường trước” của các công nghệ mới. Ví dụ, Cách mạng Công nghiệp đã mang lại việc sử dụng than để cung cấp năng lượng cho động cơ và nhà máy, và nhiên liệu hóa thạch này và các nhiên liệu hóa thạch tiếp theo như dầu và xăng tiếp tục được sử dụng ngày nay để cung cấp năng lượng cho nhiều quy trình quan trọng trong xã hội, tuy nhiên hiện nay về mặt khoa học và được hiểu rộng rãi rằng khí thải đang góp phần vào sự nóng lên toàn cầu đe dọa sự sống còn của nhân loại và của nhiều dạng sống trên Trái đất. Một hậu quả không lường trước khác liên quan đến nhựa — các sản phẩm dầu mỏ có thể được tạo thành nhiều hình dạng khác nhau với các chất lượng khác nhau như tính linh hoạt và độ bền và màu sắc, với độ dẻo và dễ uốn cao và chi phí thấp — đã được áp dụng rộng rãi trong bao bì và các sản phẩm tiêu dùng và công nghiệp khác và vật liệu xây dựng, nhưng hiện đang tạo ra quá nhiều chất thải trên khắp thế giới đến mức nó đe dọa sức khỏe con người dưới dạng vi nhựa trong cơ thể và não. Cũng đáng xem xét là việc sử dụng thuốc trừ sâu DDT và lệnh cấm cuối cùng của chính phủ Hoa Kỳ sau các bài viết của nhà môi trường Rachel Carson. Mặt khác, những lo lắng sai lầm và những lời lẽ gây hoang mang về các công nghệ mới như năng lượng hạt nhân trong những năm 1970 đã dẫn đến việc ngừng hoặc đình chỉ các dự án có thể dẫn đến lưới điện sạch hơn và cứu sống hàng nghìn hoặc hàng triệu người do ảnh hưởng của ô nhiễm và sự nóng lên toàn cầu. Xem xét tất cả những điều này và bất kỳ ví dụ lịch sử liên quan nào khác về hậu quả không lường trước của công nghệ, hãy giải thích cách xã hội nên tiếp cận những tiến bộ mới như AI, mức độ thận trọng và cơ chế nào là phù hợp, những rủi ro của việc quản lý quá mức hoặc đối thủ vũ khí hóa công nghệ mới hoặc sử dụng nó để phát triển thịnh vượng với chi phí của xã hội khởi nguồn và công nghệ mới nên được mọi người đón nhận đến mức nào hoặc nên được xem xét thận trọng hơn.”

Kết quả: “ The Unintended Consequences of Technology: A Historical Perspective and the Path Forward with AI “

6. Thể hiện giới tính trong suốt lịch sử và ngày nay

Lời nhắc: Nghiên cứu về giới tính và tình dục đã chứng kiến nhiều sự phát triển trong suốt lịch sử loài người ngay cả khi đối mặt với các chế độ chính phủ đàn áp và các chính trị gia và đối thủ đạo đức. Đây là một lĩnh vực với nhiều lý thuyết khác nhau bao gồm và chạm vào nhiều lĩnh vực khác như sinh học, xã hội học, văn hóa, thần kinh học, di truyền học, v.v. Điều tra lĩnh vực này để thảo luận về sự hiểu biết ngày càng tăng về chủ nghĩa chuyển giới, các nguyên nhân hoặc sự xuất hiện đồng thời có thể có của nó với các thuộc tính khác của con người, sử dụng các tài khoản trực tiếp của bệnh nhân chuyển giới và thảo luận về vai trò quá lớn mà các vấn đề chuyển giới đã đảm nhận trong những năm gần đây và lý do cho điều này — liệu cộng đồng có phải là vật tế thần chính trị không? Và hơn nữa, nghiên cứu và thảo luận về sự xuất hiện của phi nhị nguyên và các biểu hiện và bản sắc giới tính thay thế khác trong suốt lịch sử, thậm chí quay trở lại Orlando của Virginia Woolf và bản sắc Hai Linh của các bộ lạc người Mỹ bản địa và các hình thức biểu hiện giới tính bản địa khác, tóm tắt hiện tượng này và ghi lại sự phổ biến của nó theo thời gian.”

Kết quả: “ Gender and Sexuality Studies: Transgenderism and Alternate Gender Identities “

7. Diệt chủng trong suốt lịch sử và liệu các hành động gần đây của Israel ở Gaza có đủ điều kiện hay không

Lời nhắc: “Một trong những sự tái diễn bi thảm nhất trong suốt lịch sử được ghi lại của loài người là các cuộc diệt chủng, trong đó một nhóm vũ trang và thường hùng mạnh tìm cách áp bức, khuất phục và cuối cùng là loại bỏ một nhóm ít quyền lực hơn và ít vũ trang hơn. Vụ thảm sát do Đức Quốc xã gây ra đối với dân số người Do Thái châu Âu và lớn hơn là một ví dụ được dạy ngày nay trong nhiều (hầu hết?) trường học phương Tây. Ngoài ra còn có những sự cố ít được biết đến hơn nhưng vẫn cực kỳ quan trọng và bi thảm như Vụ diệt chủng Rwanda và Vụ diệt chủng Armenia. Thảo luận về những điểm chung trong những sự cố khủng khiếp này trong suốt lịch sử — trong bầu không khí xã hội dẫn đến chúng ở các địa điểm tương ứng của chúng — và kiểm tra các nguồn thông tin hiện tại trên tin tức và các bài báo khoa học để xác định xem các hành động quân sự gần đây của Israel ở Gaza có đủ điều kiện là diệt chủng hay không và tại sao.”

Kết quả: “ Genocides: Commonalities Between the Holocaust, Rwandan, and Armenian Genocides and Whether the Gaza Conflict Qualifies “

8. Nghiên cứu UAP

Lời nhắc: “Nghiên cứu mọi nguồn có thể kiểm chứng được về UFO và UAP và chuẩn bị cho tôi một báo cáo về một số lý thuyết giải thích chúng với bằng chứng nhiều nhất hoặc bạn tin rằng được hỗ trợ tốt nhất bởi bằng chứng hiện có”

Kết quả: “ Unidentified Anomalous Phenomena (UAP): An Examination of Leading Theories and Evidence “

Giải mã Quảng cáo Super Bowl của OpenAI và Bài đăng trên Blog của Sam Altman

Nếu bạn là một trong gần 40 triệu hộ gia đình ở Hoa Kỳ đã theo dõi NFL Super Bowl LIX năm nay, ngoài việc xem Philadelphia Eagles đánh bại Kansas City Chiefs, bạn có thể đã xem một quảng cáo cho OpenAI.

Đây là quảng cáo Super Bowl đầu tiên của công ty và nó có giá 14 triệu đô la – phù hợp với số tiền thiên văn mà các quảng cáo yêu cầu trong trò chơi lớn, một số người đến xem thay vì bóng đá. Như bạn sẽ thấy trong một bản sao được nhúng bên dưới, quảng cáo OpenAI mô tả nhiều tiến bộ trong suốt lịch sử loài người, dẫn đến ChatGPT ngày nay, điều mà OpenAI gọi là “Thời đại Trí tuệ.

Mặc dù phản ứng với quảng cáo rất khác nhau – tôi đã thấy nhiều lời khen ngợi và bảo vệ hơn là chỉ trích trong nguồn cấp dữ liệu của mình – nhưng rõ ràng nó chỉ ra rằng OpenAI đã đến như một lực lượng lớn trong văn hóa Mỹ và rõ ràng là tìm cách kết nối với một dòng dõi phát minh, khám phá và tiến bộ công nghệ lâu dài đã diễn ra ở đây.

Đối với tôi, quảng cáo Super Bowl của OpenAI dường như là một thông điệp hoàn toàn vô hại và đơn giản được thiết kế để thu hút khán giả rộng nhất có thể – hoàn hảo cho Super Bowl và lượng khán giả lớn của nó trên các nhân khẩu học. Theo một cách nào đó, nó thậm chí còn trơn tru và không gây tranh cãi đến mức dễ quên.

Nhưng cùng với một bài đăng trên blog mà Giám đốc điều hành OpenAI Sam Altman đã xuất bản trên trang web cá nhân của mình vào đầu ngày Chủ nhật, có tiêu đề “Ba quan sát“, và đột nhiên đánh giá của OpenAI về thời điểm hiện tại và tương lai trở nên kịch tính và khắc nghiệt hơn nhiều.

Txl 1 12

OpenAI/YouTube

Altman bắt đầu bài đăng trên blog với một tuyên bố về trí tuệ nhân tạo tổng quát (AGI), lý do tồn tại của việc thành lập OpenAI và những nỗ lực không ngừng của nó để phát hành các mô hình AI ngày càng mạnh mẽ hơn như loạt o3 mới nhất. Tuyên bố này, giống như quảng cáo Super Bowl của OpenAI, cũng tìm cách kết nối công việc xây dựng các mô hình này và tiếp cận mục tiêu AGI này với lịch sử đổi mới của con người nói chung.

Các hệ thống bắt đầu chỉ ra AGI* đang xuất hiện và vì vậy chúng tôi nghĩ rằng điều quan trọng là phải hiểu thời điểm chúng ta đang ở. AGI là một thuật ngữ được định nghĩa yếu, nhưng nói chung chúng tôi muốn nó là một hệ thống có thể giải quyết các vấn đề ngày càng phức tạp, ở cấp độ con người, trong nhiều lĩnh vực.

Mọi người là những người xây dựng công cụ với một động lực vốn có để hiểu và tạo ra, điều này dẫn đến thế giới trở nên tốt đẹp hơn cho tất cả chúng ta. Mỗi thế hệ mới xây dựng dựa trên những khám phá của các thế hệ trước để tạo ra các công cụ có khả năng hơn nữa – điện, bóng bán dẫn, máy tính, internet và sớm là AGI.

Một vài đoạn sau, anh ấy thậm chí dường như thừa nhận rằng AI – như nhiều nhà phát triển và người dùng công nghệ đồng ý – chỉ đơn giản là một công cụ mới khác. Tuy nhiên, anh ta ngay lập tức lật ngược lại để gợi ý rằng đây có thể là một công cụ khác rất nhiều so với bất kỳ ai trên thế giới từng trải qua cho đến nay. Như anh ấy viết:

Theo một nghĩa nào đó, AGI chỉ là một công cụ khác trong giàn giáo ngày càng cao của sự tiến bộ của con người mà chúng ta đang cùng nhau xây dựng. Theo một nghĩa khác, nó là sự khởi đầu của một điều gì đó mà khó có thể nói là “lần này nó khác”; tăng trưởng kinh tế trước mắt chúng ta có vẻ đáng kinh ngạc và giờ đây chúng ta có thể tưởng tượng một thế giới nơi chúng ta chữa khỏi mọi bệnh tật, có nhiều thời gian hơn để tận hưởng với gia đình và có thể phát huy hết tiềm năng sáng tạo của mình.

Ý tưởng “chữa khỏi mọi bệnh tật”, mặc dù chắc chắn hấp dẫn – phản ánh điều gì đó mà ông chủ công nghệ đối thủ Mark Zuckerberg của Meta cũng đã tìm cách thực hiện với Tổ chức nghiên cứu y học Chan-Zuckerberg Initiative do vợ anh, Prisicilla Chan đồng sáng lập. Tính đến hai năm trước, mốc thời gian được đề xuất cho sáng kiến Chan-Zuckerberg để đạt được mục tiêu này là vào năm 2100. Tuy nhiên, giờ đây nhờ vào sự tiến bộ của AI, Altman dường như tin rằng nó có thể đạt được sớm hơn, viết: “Trong một thập kỷ, có lẽ mọi người trên trái đất sẽ có khả năng hoàn thành nhiều hơn người có tác động nhất có thể ngày nay.”

Altman và Zuck khó có thể là hai tỷ phú công nghệ nổi tiếng quan tâm đến y học và khoa học về tuổi thọ nói riêng. Các đồng sáng lập của Google, đặc biệt là Sergey Brin, đã bỏ tiền vào các nỗ lực tương tự và trên thực tế, đã có (hoặc đang có) tại một thời điểm có rất nhiều nhà lãnh đạo trong ngành công nghệ quan tâm đến việc kéo dài tuổi thọ của con người và chấm dứt bệnh tật đến mức vào năm 2017, tạp chí The New Yorker đã đăng một bài viết có tiêu đề: “Cuộc tìm kiếm để sống mãi của Thung lũng Silicon.”

Khái niệm утоtopian về việc chấm dứt bệnh tật và cuối cùng là cái chết dường như rõ ràng là kiêu ngạo đối với tôi – có bao nhiêu câu chuyện dân gian và truyện cổ tích về những nguy hiểm của việc cố gắng gian lận cái chết? – nhưng nó phù hợp gọn gàng với niềm tin утоtopian công nghệ lớn hơn của một số người trong ngành, niềm tin này đã được các nhà phê bình và nhà nghiên cứu AGI Timnit Gebru và Émile P. Torres nhóm lại một cách hữu ích dưới thuật ngữ ô dù TESCREAL, một từ viết tắt của “chủ nghĩa siêu nhân, chủ nghĩa ngoại lai, chủ nghĩa độc đáo, chủ nghĩa vũ trụ (hiện đại), chủ nghĩa duy lý, chủ nghĩa vị tha hiệu quả và chủ nghĩa dài hạn,” trong bài báo năm 2023 của họ.

Như những tác giả này làm sáng tỏ, lớp vỏ của sự tiến bộ đôi khi che giấu những niềm tin xấu xí hơn, chẳng hạn như sự vượt trội về chủng tộc hoặc nhân loại vốn có của những người có chỉ số IQ cao hơn, nhân khẩu học cụ thể và cuối cùng gợi lên khoa học chủng tộc và thuật đo hộp sọ của những thời đại phân biệt đối xử và áp bức công khai hơn trong quá khứ.

Không có gì cho thấy trong ghi chú của Altman rằng anh ấy chia sẻ những niềm tin như vậy, bạn biết đấy… trên thực tế, ngược lại. Anh ấy viết:

“Đảm bảo rằng lợi ích của AGI được phân phối rộng rãi là rất quan trọng. Tác động lịch sử của tiến bộ công nghệ cho thấy rằng hầu hết các số liệu mà chúng ta quan tâm (kết quả sức khỏe, sự thịnh vượng kinh tế, v.v.) đều tốt hơn trung bình và về lâu dài, nhưng việc tăng cường bình đẳng dường như không được xác định về mặt công nghệ và việc thực hiện đúng điều này có thể đòi hỏi những ý tưởng mới.”

Nói cách khác: anh ấy muốn đảm bảo rằng cuộc sống của mọi người trở nên tốt hơn với AGI, nhưng không chắc chắn làm thế nào để đạt được điều đó. Đó là một khái niệm đáng khen ngợi và có thể chính AGI có thể giúp trả lời, nhưng có một điều, các mô hình mới nhất và tuyệt vời nhất của OpenAI vẫn đóng và độc quyền trái ngược với các đối thủ như gia đình Llama của Meta và R1 của DeepSeek, mặc dù sau này dường như khiến Altman phải đánh giá lại cách tiếp cận của OpenAI đối với cộng đồng nguồn mở như anh ấy đã đề cập trên một chuỗi Reddit AMA riêng biệt gần đây. Có lẽ OpenAI có thể bắt đầu bằng cách mở nguồn nhiều hơn công nghệ của mình để đảm bảo nó lan rộng hơn đến nhiều người dùng hơn, bình đẳng hơn?

Trong khi đó, nói về các mốc thời gian cụ thể, Altman dường như dự đoán rằng mặc dù một vài năm tới có thể không hoàn toàn được làm lại bởi AI hoặc AGI, nhưng anh ấy tự tin hơn về tác động có thể nhìn thấy vào cuối thập kỷ 2035. Như anh ấy nói:

“Thế giới sẽ không thay đổi tất cả cùng một lúc; nó không bao giờ xảy ra. Cuộc sống sẽ tiếp tục phần lớn giống nhau trong thời gian ngắn và mọi người vào năm 2025 sẽ chủ yếu dành thời gian của họ theo cách họ đã làm vào năm 2024. Chúng ta vẫn sẽ yêu nhau, tạo dựng gia đình, cãi nhau trên mạng, đi bộ đường dài trong tự nhiên, v.v.

Nhưng tương lai sẽ đến với chúng ta theo một cách không thể bỏ qua và những thay đổi dài hạn đối với xã hội và nền kinh tế của chúng ta sẽ rất lớn. Chúng ta sẽ tìm thấy những điều mới để làm, những cách mới để hữu ích cho nhau và những cách mới để cạnh tranh, nhưng chúng có thể không giống lắm với công việc ngày nay.

Bất kỳ ai vào năm 2035 cũng có thể tập hợp [sic] năng lực trí tuệ tương đương với mọi người vào năm 2025; mọi người nên có quyền truy cập vào thiên tài không giới hạn để chỉ đạo theo bất kỳ cách nào họ có thể tưởng tượng. Có rất nhiều tài năng ngay bây giờ mà không có nguồn lực để thể hiện hết mình và nếu chúng ta thay đổi điều đó, kết quả sáng tạo của thế giới sẽ mang lại những lợi ích to lớn cho tất cả chúng ta.”

Điều này để chúng ta ở đâu? Các nhà phê bình của OpenAI sẽ nói rằng đó là sự cường điệu trống rỗng hơn được thiết kế để tiếp tục xoa dịu các nhà đầu tư bỏ túi lớn của OpenAI như Softbank và trì hoãn bất kỳ áp lực nào để có AGI làm việc trong một thời gian dài hơn.

Nhưng đã sử dụng những công cụ này cho bản thân, xem và báo cáo về những người dùng khác và thấy những gì họ đã có thể hoàn thành – chẳng hạn như viết phần mềm phức tạp trong vòng vài phút mà không có nhiều kiến thức nền tảng trong lĩnh vực này – tôi có xu hướng tin rằng Altman nghiêm túc trong những dự đoán của mình và hy vọng vào cam kết của anh ấy đối với sự phân phối bình đẳng.

Nhưng việc giữ tất cả các mô hình tốt nhất được đóng gói dưới một gói đăng ký rõ ràng là không phải là cách để đạt được quyền truy cập bình đẳng vào AGI – vì vậy câu hỏi lớn nhất của tôi vẫn là công ty làm gì dưới sự lãnh đạo của anh ấy để đảm bảo nó di chuyển theo hướng anh ấy đã nêu rõ và quảng cáo Super Bowl cũng kỷ niệm.

Google ra mắt Gemini 2.0 Pro, Flash-Lite và kết nối mô hình suy luận Flash Thinking với YouTube, Maps và Search!

Hôm nay, công ty thông báo</a > về việc phát hành chung Gemini 2.0 Flash, giới thiệu Gemini 2.0 Flash-Lite và phiên bản thử nghiệm của Gemini 2.0 Pro.

Các mô hình này, được thiết kế để hỗ trợ các nhà phát triển và doanh nghiệp, hiện có thể truy cập thông qua Google AI Studio và Vertex AI, với Flash-Lite ở bản xem trước công khai và Pro có sẵn để thử nghiệm sớm.

“Tất cả các mô hình này sẽ có tính năng nhập đa phương thức với đầu ra văn bản khi phát hành, với nhiều phương thức hơn sẵn sàng cho việc phát hành chung trong những tháng tới,” Koray Kavukcuoglu, giám đốc công nghệ của Google DeepMind, đã viết trong bài đăng trên blog thông báo</a > của công ty — thể hiện một lợi thế mà Google đang mang lại, ngay cả khi các đối thủ cạnh tranh như DeepSeek</a > và OpenAI</a > tiếp tục ra mắt các đối thủ mạnh mẽ.

Google ra mắt Gemini 2.0 Pro, Flash-Lite và kết nối mô hình suy luận Flash Thinking với YouTube, Maps và Search!

Google phát huy thế mạnh đa phương thức của mình

Cả DeepSeek R1 và mô hình o3-mini mới của OpenAI</a > đều không thể chấp nhận đầu vào đa phương thức, tức là hình ảnh và tải lên tệp hoặc tệp đính kèm.

Mặc dù DeepSeek R1 có thể chấp nhận chúng trên trang web và ứng dụng di động của mình, nhưng nó thực hiện nhận dạng ký tự quang học (OCR), một công nghệ đã hơn 60 năm tuổi, để chỉ trích xuất văn bản từ các tải lên này — không thực sự hiểu hoặc phân tích bất kỳ tính năng nào khác có trong đó.

Tuy nhiên, cả hai đều là một loại mô hình “lý luận” mới, cố tình dành nhiều thời gian hơn để suy nghĩ kỹ về các câu trả lời và suy ngẫm về “chuỗi suy nghĩ” và tính chính xác của các phản hồi của chúng. Điều đó trái ngược với các LLM điển hình như dòng Gemini 2.0 pro, vì vậy việc so sánh giữa Gemini 2.0 và DeepSeek R1 và OpenAI o3 hơi giống như so sánh táo với cam.

Nhưng cũng có một số tin tức về mặt lý luận ngày hôm nay từ Google: Giám đốc điều hành Google Sundar Pichai đã lên mạng xã hội X</a > để tuyên bố rằng ứng dụng di động Google Gemini</a > dành cho iOS và Android đã được cập nhật với mô hình lý luận đối thủ của riêng Google, Gemini 2.0 Flash Thinking, và mô hình này có thể được kết nối với các dịch vụ nổi tiếng hiện có của Google là Google Maps, YouTube và Google Search, cho phép một loạt các nghiên cứu và tương tác được hỗ trợ bởi AI hoàn toàn mới mà đơn giản là không thể so sánh được với những kẻ mới nổi không có các dịch vụ như DeepSeek và OpenAI.

Tôi đã thử nhanh nó trên ứng dụng Google Gemini iOS trên iPhone của mình trong khi viết bài này và nó rất ấn tượng dựa trên các truy vấn ban đầu của tôi, suy nghĩ về những điểm chung của 10 video YouTube phổ biến nhất trong tháng trước và cũng cung cấp cho tôi một bảng các văn phòng bác sĩ gần đó và giờ mở/đóng cửa, tất cả chỉ trong vài giây.

Gemini 2.0 Flash đi vào phát hành chung

Mô hình Gemini 2.0 Flash, ban đầu được ra mắt dưới dạng phiên bản thử nghiệm vào tháng 12</a >, hiện đã sẵn sàng để sản xuất.

Được thiết kế cho các ứng dụng AI hiệu quả cao, nó cung cấp các phản hồi có độ trễ thấp và hỗ trợ lý luận đa phương thức quy mô lớn.

Một lợi ích lớn so với đối thủ cạnh tranh là ở cửa sổ ngữ cảnh của nó hoặc số lượng mã thông báo mà người dùng có thể thêm vào dưới dạng lời nhắc và nhận lại trong một tương tác qua lại với chatbot hoặc giao diện lập trình ứng dụng được hỗ trợ bởi LLM.

Trong khi nhiều mô hình hàng đầu như o3-mini mới của OpenAI ra mắt vào tuần trước chỉ hỗ trợ 200.000 mã thông báo trở xuống — tương đương với một cuốn tiểu thuyết có mật độ thông tin khoảng 400-500 trang — Gemini 2.0 Flash hỗ trợ 1 triệu, nghĩa là nó có khả năng xử lý một lượng lớn thông tin, khiến nó đặc biệt hữu ích cho các tác vụ tần suất cao và quy mô lớn.

Gemini 2.0 Flash-Lite xuất hiện để uốn cong đường cong chi phí xuống mức thấp nhất từ trước đến nay

Trong khi đó, Gemini 2.0 Flash-Lite là một mô hình ngôn ngữ lớn hoàn toàn mới nhằm cung cấp một giải pháp AI hiệu quả về chi phí mà không ảnh hưởng đến chất lượng.

Google DeepMind tuyên bố rằng Flash-Lite vượt trội hơn người tiền nhiệm (số lượng tham số lớn hơn) kích thước đầy đủ của nó, Gemini 1.5 Flash, trên các điểm chuẩn của bên thứ ba như MMLU Pro (77,6% so với 67,3%) và lập trình Bird SQL (57,4% so với 45,6%), đồng thời duy trì cùng một mức giá và tốc độ.

Nó cũng hỗ trợ đầu vào đa phương thức và có cửa sổ ngữ cảnh 1 triệu mã thông báo, tương tự như mô hình Flash đầy đủ.

Hiện tại, Flash-Lite có sẵn ở bản xem trước công khai thông qua Google AI Studio và Vertex AI, với tính khả dụng chung dự kiến trong những tuần tới.

Như được hiển thị trong bảng bên dưới, Gemini 2.0 Flash-Lite có giá 0,075 đô la cho mỗi triệu mã thông báo (đầu vào) và 0,30 đô la cho mỗi triệu mã thông báo (đầu ra). Flash-Lite được định vị là một lựa chọn rất phải chăng cho các nhà phát triển, vượt trội hơn Gemini 1.5 Flash trên hầu hết các điểm chuẩn trong khi vẫn duy trì cùng một cấu trúc chi phí.

Logan Kilpatrick nhấn mạnh tính hợp lý về giá cả và giá trị của các mô hình, nói rằng: “Gemini 2.0 Flash là giá trị tốt nhất của bất kỳ LLM nào, đã đến lúc xây dựng!”

Thật vậy, so với các LLM truyền thống hàng đầu khác có sẵn thông qua API nhà cung cấp như OpenAI 4o-mini </a >(0,15 đô la/0,6 đô la cho mỗi 1 triệu mã thông báo vào/ra), Anthropic Claude</a > (0,8 đô la/4 đô la! cho mỗi 1 triệu vào/ra) và thậm chí cả LLM truyền thống V3 của DeepSeek (0,14 đô la/0,28 đô la), Gemini 2.0 Flash dường như là lựa chọn tốt nhất cho đồng tiền bát gạo.

Gemini 2.0 Pro có mặt trong bản thử nghiệm với cửa sổ ngữ cảnh 2 triệu mã thông báo

Đối với người dùng yêu cầu các khả năng AI nâng cao hơn, mô hình Gemini 2.0 Pro (Thử nghiệm) hiện đã có sẵn để thử nghiệm.

Google DeepMind mô tả đây là mô hình mạnh nhất của mình để thực hiện mã hóa và xử lý các lời nhắc phức tạp. Nó có cửa sổ ngữ cảnh 2 triệu mã thông báo và khả năng lý luận được cải thiện, với khả năng tích hợp các công cụ bên ngoài như Google Search và thực thi mã.

Sam Witteveen, đồng sáng lập và Giám đốc điều hành của Red Dragon AI và là Chuyên gia phát triển Google bên ngoài về Học máy, đã thảo luận về mô hình Pro trong một bài đánh giá trên YouTube. “Mô hình Gemini 2.0 Pro mới có cửa sổ ngữ cảnh hai triệu mã thông báo, hỗ trợ các công cụ, thực thi mã, gọi hàm và kết nối với Google Search — mọi thứ chúng ta có trong Pro 1.5 nhưng đã được cải thiện.”

Ông cũng lưu ý về phương pháp lặp đi lặp lại của Google đối với phát triển AI: “Một trong những điểm khác biệt chính trong chiến lược của Google là họ phát hành các phiên bản thử nghiệm của mô hình trước khi chúng được GA (truy cập chung), cho phép lặp lại nhanh chóng dựa trên phản hồi.”

Các điểm chuẩn hiệu suất tiếp tục minh họa các khả năng của dòng mô hình Gemini 2.0. Ví dụ: Gemini 2.0 Pro vượt trội hơn Flash và Flash-Lite trong các tác vụ như lý luận, hiểu đa ngôn ngữ và xử lý ngữ cảnh dài.

An toàn AI và Phát triển Tương lai

Bên cạnh những cập nhật này, Google DeepMind đang triển khai các biện pháp an toàn và bảo mật mới cho các mô hình Gemini 2.0. Công ty đang sử dụng các kỹ thuật học tăng cường để cải thiện độ chính xác của phản hồi, sử dụng AI để phê bình và tinh chỉnh các đầu ra của chính nó. Ngoài ra, thử nghiệm bảo mật tự động đang được sử dụng để xác định các lỗ hổng, bao gồm cả các mối đe dọa tiêm lời nhắc gián tiếp.

Trong tương lai, Google DeepMind có kế hoạch mở rộng các khả năng của dòng mô hình Gemini 2.0, với các phương thức bổ sung ngoài văn bản dự kiến sẽ có sẵn rộng rãi trong những tháng tới.

Với những cập nhật này, Google đang củng cố nỗ lực của mình vào phát triển AI, cung cấp một loạt các mô hình được thiết kế để mang lại hiệu quả, giá cả phải chăng và giải quyết vấn đề nâng cao, đồng thời đáp lại sự trỗi dậy của DeepSeek với bộ mô hình của riêng mình, từ mạnh mẽ đến rất mạnh mẽ và cực kỳ phải chăng đến ít hơn một chút (nhưng vẫn khá) phải chăng.

Liệu điều đó có đủ để giúp Google thâm nhập vào một phần thị trường AI doanh nghiệp, thị trường đã từng bị OpenAI thống trị và giờ đã bị DeepSeek lật đổ? Chúng tôi sẽ tiếp tục theo dõi và cho bạn biết!

Chế độ ‘Nghiên cứu Sâu’ mới do o3 hỗ trợ của OpenAI cho thấy sức mạnh của kỷ nguyên AI Agent

 

Trong trường hợp bạn đã bỏ lỡ nó vì Giải thưởng Grammy đêm qua, OpenAI đã gây bất ngờ cho thế giới vào tối Chủ Nhật với thông báo về phương thức “Nghiên cứu Sâu” mới của mình, một AI agent dành cho người dùng gói đăng ký ChatGPT Pro (200 đô la/tháng) được thiết kế để tiết kiệm hàng giờ cho con người bằng cách nghiên cứu “sâu” và mở rộng trên web về các chủ đề nhất định và tổng hợp các báo cáo chất lượng chuyên nghiệp trên các lĩnh vực chuyên môn từ kinh doanh đến khoa học, y học, marketing và hơn thế nữa.

Sam Altman, Giám đốc điều hành của OpenAI, đã mô tả tính năng này trong một loạt bài đăng trên tài khoản cá nhân của mình trên mạng xã hội X là “giống như một siêu năng lực; các chuyên gia theo yêu cầu!” Ông nói thêm, “Nó thực sự tốt và có thể thực hiện các nhiệm vụ mà phải mất hàng giờ/ngày và tốn hàng trăm đô la.”

Nghiên cứu Sâu được xây dựng dựa trên Dòng mô hình lý luận O của OpenAI, đặc biệt tận dụng mô hình o3 đầy đủ sắp ra mắt (một mô hình nhỏ hơn và kém mạnh mẽ hơn, o3-mini, vừa được ra mắt vào thứ Sáu). Mô hình o3 đầy đủ có thể phân tích lượng lớn thông tin và tích hợp văn bản, PDF và hình ảnh vào một phân tích mạch lạc.

Trong một livestream được đăng trên YouTube và có sẵn để phát lại theo yêu cầu, Mark Chen, Trưởng phòng Nghiên cứu Tiên phong của OpenAI, giải thích rằng “Nghiên cứu Sâu là một mô hình thực hiện nghiên cứu nhiều bước trên internet. Nó khám phá nội dung, tổng hợp nội dung và suy luận về nội dung này, điều chỉnh kế hoạch khi nó khám phá ngày càng nhiều thông tin.”

Chen tiếp tục nhấn mạnh tầm quan trọng của sự đổi mới đối với tầm nhìn của OpenAI: “Đây là cốt lõi trong lộ trình AGI của chúng tôi. Khát vọng cuối cùng của chúng tôi là một mô hình có thể khám phá và khám phá kiến thức mới cho chính nó.”

Việc ra mắt Nghiên cứu Sâu đánh dấu lần thứ hai trong số các agent chính thức của OpenAI sau khi ra mắt Trình điều khiển trình duyệt và con trỏ Operator vào đầu tháng này. Và Joshua Achiam, Trưởng phòng Căn chỉnh Sứ mệnh tại Stargate Command tại OpenAI đã viết trên X, cả hai mô hình đều có thể giúp xác định rõ hơn khái niệm về một “AI agent” — một thuật ngữ phổ biến nhưng mơ hồ ngày nay giữa các doanh nghiệp — vượt xa công ty hoặc các trường hợp sử dụng cụ thể này.

“Tôi cảm thấy như thuật ngữ ‘agent’ đã lang thang trong sa mạc một thời gian,” Achaim viết. “Nó không có nền tảng hoặc ví dụ để chỉ ra. Nhưng các agent như Operator hoặc Nghiên cứu Sâu mang lại một số hình dạng cho khái niệm này. Một agent là một AI đa mục đích thực hiện một hoặc nhiều quy trình làm việc sử dụng công cụ cho bạn.”

Txl 1 7
Txl 1 7

Nghiên cứu Sâu của OpenAI đạt điểm số cao nhất mới trên chuẩn AI ‘Bài kiểm tra cuối cùng của nhân loại’

Nghiên cứu Sâu đã đặt ra các chuẩn mực mới về độ chính xác và lý luận.

Isa Fulford, một thành viên của nhóm nghiên cứu của OpenAI, đã chia sẻ trong buổi livestream trên YouTube rằng mô hình đạt được “mức cao mới là 26,6% độ chính xác” trên “Bài kiểm tra cuối cùng của nhân loại” một chuẩn AI tương đối mới được thiết kế để trở nên khó nhất đối với bất kỳ mô hình AI nào (hoặc con người, về vấn đề đó) để hoàn thành, bao gồm 3.000 câu hỏi trên 100 môn học khác nhau, chẳng hạn như dịch các chữ khắc cổ trên các phát hiện khảo cổ.

Txl 1 7

Hơn nữa, khả năng duyệt web, lý luận linh hoạt và trích dẫn nguồn chính xác của nó giúp nó khác biệt so với các công cụ AI trước đây.

“Mô hình được đào tạo bằng cách sử dụng học tăng cường từ đầu đến cuối trên các tác vụ duyệt web và lý luận khó,” Fulford nói. “Nó đã học cách lập kế hoạch và thực hiện các quỹ đạo nhiều bước, phản ứng với thông tin thời gian thực và quay lại khi cần thiết.”

Một tính năng nổi bật của Nghiên cứu Sâu là khả năng xử lý các tác vụ mà nếu không con người phải mất hàng giờ hoặc thậm chí nhiều ngày.

Trong buổi thông báo, Chen giải thích rằng “Nghiên cứu Sâu tạo ra các đầu ra giống như một bài báo nghiên cứu toàn diện, được trích dẫn đầy đủ — một thứ mà một nhà phân tích hoặc chuyên gia trong lĩnh vực này có thể tạo ra.”

Các ứng dụng và trường hợp sử dụng

Các trường hợp sử dụng cho Nghiên cứu Sâu rất đa dạng và có tác động.

Tài khoản chính thức của OpenAI trên X tuyên bố rằng nó được “xây dựng cho những người làm công việc tri thức chuyên sâu trong các lĩnh vực như tài chính, khoa học, chính sách & kỹ thuật và cần nghiên cứu kỹ lưỡng & đáng tin cậy.”

Nó cũng có vẻ có giá trị đối với người tiêu dùng đang tìm kiếm các đề xuất được cá nhân hóa hoặc thực hiện nghiên cứu sản phẩm chi tiết, theo các ví dụ được chia sẻ bởi OpenAI trên bài đăng trên blog thông báo chính thức về Nghiên cứu Sâu, bao gồm đánh giá nghiên cứu chi tiết về ván trượt tuyết tốt nhất cho ai đó mua.

Altman tóm tắt tính linh hoạt của công cụ này bằng cách viết, “Hãy thử nó vào nhiệm vụ công việc khó khăn nhất của bạn có thể được giải quyết chỉ bằng cách sử dụng internet và xem điều gì sẽ xảy ra.”

Câu chuyện thành công y tế cá nhân của Nghiên cứu Sâu

Felipe Millon, trưởng nhóm Go-to-Market của Chính phủ OpenAI, đã chia sẻ một câu chuyện cá nhân sâu sắc về cách Nghiên cứu Sâu tác động đến gia đình anh. Viết trong một loạt bài đăng trên X, anh mô tả cuộc chiến của vợ mình với bệnh ung thư vú song phương và cách công cụ AI trở thành một đồng minh bất ngờ.

“Vào cuối tháng 10, vợ tôi được chẩn đoán mắc bệnh ung thư vú song phương. Chỉ sau một đêm, thế giới của chúng tôi đảo lộn,” Millon viết.

Sau khi phẫu thuật cắt bỏ vú đôi và hóa trị, hai vợ chồng phải đối mặt với một quyết định quan trọng: có nên tiếp tục xạ trị hay không. Tình hình rất khó khăn với sự không chắc chắn, vì ngay cả các chuyên gia của họ cũng đưa ra các khuyến nghị khác nhau. “Đối với trường hợp cụ thể của cô ấy, nó hoàn toàn nằm trong vùng xám,” Millon giải thích. “Chúng tôi cảm thấy bế tắc.”

Có quyền truy cập xem trước vào Nghiên cứu Sâu, Millon quyết định tải lên báo cáo bệnh lý phẫu thuật của vợ mình và hỏi liệu xạ trị có mang lại lợi ích hay không. “Điều xảy ra tiếp theo thật đáng kinh ngạc,” anh viết. “Nó không chỉ xác nhận những gì các bác sĩ ung thư của chúng tôi đã đề cập — nó còn đi sâu hơn. Nó trích dẫn các nghiên cứu mà tôi chưa từng nghe đến và điều chỉnh khi chúng tôi thêm các chi tiết như tuổi tác và các yếu tố di truyền của cô ấy.”

Lời nhắc cụ thể mà anh ấy đã sử dụng là:

“Đọc báo cáo bệnh lý phẫu thuật (đính kèm) chứa thông tin về bệnh ung thư vú song phương. Sau đó, hãy nghiên cứu xem liệu xạ trị có được chỉ định cho bệnh nhân này sau 6 vòng hóa trị TCHP dựa trên loại ung thư vú hay không. Tôi muốn hiểu rõ những ưu và nhược điểm của xạ trị đối với bệnh nhân này, khả năng giảm nguy cơ tái phát và liệu lợi ích có lớn hơn những rủi ro tiềm ẩn lâu dài hay không.”

Millon và vợ anh đã kiểm tra thực tế từng nghiên cứu mà mô hình trích dẫn, thấy chúng chính xác và có liên quan cao. “Chúng tôi sẽ gặp một chuyên gia khác sớm thôi, nhưng chúng tôi đã cảm thấy tự tin hơn về quyết định của mình,” anh viết. “Nó đã mang lại cho chúng tôi sự an tâm khi chúng tôi cần nó nhất.”

Tính khả dụng và những gì tiếp theo?

Nghiên cứu Sâu hiện có sẵn cho người dùng Pro của ChatGPT, với kế hoạch mở rộng sang các cấp Plus và Team, sau đó là các thị trường Doanh nghiệp và giáo dục.

Như Chen đã cảnh báo, “Nó vẫn có thể bị ảo giác, vì vậy khi bạn lập báo cáo, hãy nhớ tự kiểm tra các nguồn.”

Khả năng tự suy nghĩ trong thời gian dài của mô hình cũng khiến nó tốn nhiều tài nguyên và OpenAI hiện đang làm việc để tối ưu hóa hiệu suất của nó để có khả năng truy cập rộng hơn.

OpenAI cũng đã gợi ý về các tích hợp trong tương lai với các bộ dữ liệu tùy chỉnh, cho phép các tổ chức tận dụng công cụ này cho nghiên cứu độc quyền.

Đối với Millon, tác động của Nghiên cứu Sâu đã rõ ràng. “Chúng tôi thường nói nội bộ tại OpenAI về những khoảnh khắc bạn ‘cảm nhận được AGI’ và đây là một trong số đó,” anh viết. “Thứ này sẽ thay đổi thế giới.”

Hướng dẫn Cài đặt n8n trên Amazon Web Services | Tài liệu n8n

Lưu trữ n8n trên Amazon Web Services#

Hướng dẫn lưu trữ này trình bày cách tự lưu trữ n8n bằng Amazon Web Services (AWS). Nó sử dụng n8n với Postgres làm cơ sở dữ liệu backend, sử dụng Kubernetes để quản lý các tài nguyên cần thiết và reverse proxy.

Các tùy chọn lưu trữ#

AWS cung cấp một số cách phù hợp để lưu trữ n8n, bao gồm EC2 (máy ảo) và EKS (các container chạy với Kubernetes).

Hướng dẫn này sử dụng EKS làm tùy chọn lưu trữ. Sử dụng Kubernetes đòi hỏi một số cấu hình và độ phức tạp bổ sung, nhưng đây là phương pháp tốt nhất để mở rộng n8n khi nhu cầu thay đổi.

Điều kiện tiên quyết#

Các bước trong hướng dẫn này sử dụng kết hợp giao diện người dùng AWS và công cụ eksctl CLI cho EKS.

Mặc dù không được đề cập trong tài liệu dành cho eksctl, bạn cũng cần cài đặt công cụ AWS CLIcấu hình xác thực cho công cụ.

Điều kiện tiên quyết về kiến thức tự lưu trữ

Tự lưu trữ n8n đòi hỏi kiến thức kỹ thuật, bao gồm:

  • Thiết lập và cấu hình máy chủ và container
  • Quản lý tài nguyên ứng dụng và mở rộng quy mô
  • Bảo mật máy chủ và ứng dụng
  • Cấu hình n8n

n8n khuyến nghị tự lưu trữ cho người dùng chuyên gia. Sai sót có thể dẫn đến mất dữ liệu, sự cố bảo mật và thời gian ngừng hoạt động. Nếu bạn không có kinh nghiệm quản lý máy chủ, n8n khuyến nghị n8n Cloud.

Phiên bản Mới nhất và Tiếp theo

n8n phát hành một phiên bản nhỏ mới hầu hết các tuần. Phiên bản latest dành cho sử dụng trong sản xuất. next là bản phát hành gần đây nhất. Bạn nên xem next như một bản beta: nó có thể không ổn định. Để báo cáo sự cố, hãy sử dụng diễn đàn.

latest hiện tại: 1.76.1
next hiện tại: 1.77.0

Tạo một cluster#

Sử dụng công cụ eksctl để tạo một cluster bằng cách chỉ định tên và khu vực bằng lệnh sau:

eksctl create cluster --name n8n --region <your-aws-region>

Quá trình này có thể mất một chút thời gian để tạo cluster.

Sau khi cluster được tạo, eksctl sẽ tự động đặt ngữ cảnh kubectl vào cluster.

Sao chép kho cấu hình#

Kubernetes và n8n yêu cầu một loạt các tệp cấu hình. Bạn có thể sao chép chúng từ kho lưu trữ này. Các bước sau sẽ cho bạn biết từng tệp làm gì và những cài đặt bạn cần thay đổi.

Sao chép kho lưu trữ bằng lệnh sau:

git clone https://github.com/n8n-io/n8n-kubernetes-hosting.git -b aws

Và thay đổi thư mục đến thư mục gốc của kho lưu trữ bạn đã sao chép:

cd n8n-kubernetes-hosting

Cấu hình Postgres#

Đối với các triển khai n8n quy mô lớn hơn, Postgres cung cấp cơ sở dữ liệu backend mạnh mẽ hơn so với SQLite.

Cấu hình volume cho bộ nhớ liên tục#

Để duy trì dữ liệu giữa các lần khởi động lại pod, quá trình triển khai Postgres cần một volume liên tục. Class lưu trữ mặc định của AWS, gp2, phù hợp cho mục đích này. Điều này được định nghĩa trong manifest postgres-claaim0-persistentvolumeclaim.yaml.

…
spec:
  storageClassName: gp2
  accessModes:
    - ReadWriteOnce
…

Các biến môi trường Postgres#

Postgres cần một số biến môi trường được thiết lập để chuyển cho ứng dụng đang chạy trong container.

Tệp postgres-secret.yaml mẫu chứa các trình giữ chỗ bạn cần thay thế bằng các giá trị của riêng bạn cho chi tiết người dùng và cơ sở dữ liệu để sử dụng.

Manifest postgres-deployment.yaml sau đó sử dụng các giá trị từ tệp manifest này để gửi đến các pod ứng dụng.

Cấu hình n8n#

Tạo một volume cho lưu trữ tệp#

Mặc dù không cần thiết để chạy n8n, nhưng việc sử dụng các volume liên tục giúp duy trì các tệp được tải lên trong khi sử dụng n8n và nếu bạn muốn duy trì các khóa mã hóa n8n thủ công giữa các lần khởi động lại, điều này sẽ lưu một tệp chứa khóa vào bộ nhớ tệp trong quá trình khởi động.

Manifest n8n-claim0-persistentvolumeclaim.yaml tạo ra điều này và Deployment n8n gắn claim đó vào phần volumes của manifest n8n-deployment.yaml.

…
volumes:
  - name: n8n-claim0
    persistentVolumeClaim:
      claimName: n8n-claim0
…

Tài nguyên Pod#

Kubernetes cho phép bạn chỉ định các tài nguyên tối thiểu mà các container ứng dụng cần và giới hạn chúng có thể chạy đến. Các tệp YAML ví dụ được sao chép ở trên chứa nội dung sau trong phần resources của tệp n8n-deployment.yaml:

…
resources:
  requests:
    memory: "250Mi"
  limits:
    memory: "500Mi"
…    

Điều này xác định tối thiểu 250mb cho mỗi container, tối đa 500mb và cho phép Kubernetes xử lý CPU. Bạn có thể thay đổi các giá trị này để phù hợp với nhu cầu của riêng bạn. Để tham khảo, đây là các giá trị tài nguyên cho các gói dịch vụ n8n cloud:

  • Start: 320mb RAM, 10 millicore CPU có thể bùng nổ
  • Pro (10k executions): 640mb RAM, 20 millicore CPU có thể bùng nổ
  • Pro (50k executions): 1280mb RAM, 80 millicore CPU có thể bùng nổ

Tùy chọn: Các biến môi trường#

Bạn có thể định cấu hình cài đặt và hành vi của n8n bằng cách sử dụng các biến môi trường.

Tạo tệp n8n-secret.yaml. Tham khảo Các biến môi trường để biết chi tiết về các biến môi trường n8n.

Các triển khai#

Hai manifest triển khai (n8n-deployment.yamlpostgres-deployment.yaml) xác định các ứng dụng n8n và Postgres cho Kubernetes.

Các manifest xác định những điều sau:

  • Gửi các biến môi trường được xác định đến mỗi pod ứng dụng
  • Xác định image container để sử dụng
  • Đặt giới hạn tiêu thụ tài nguyên
  • Các volumes được xác định trước đó và volumeMounts để xác định đường dẫn trong container để gắn volume.
  • Các chính sách mở rộng quy mô và khởi động lại. Các manifest ví dụ xác định một phiên bản của mỗi pod. Bạn nên thay đổi điều này để đáp ứng nhu cầu của bạn.

Hai manifest dịch vụ (postgres-service.yamln8n-service.yaml) hiển thị các dịch vụ ra bên ngoài bằng cách sử dụng bộ cân bằng tải Kubernetes bằng các cổng 5432 và 5678 theo mặc định.

Gửi đến cluster Kubernetes#

Gửi tất cả các manifest đến cluster bằng cách chạy lệnh sau trong thư mục n8n-kubernetes-hosting:

Lỗi Namespace

Bạn có thể thấy thông báo lỗi về việc không tìm thấy namespace “n8n” vì tài nguyên đó chưa sẵn sàng. Bạn có thể chạy lại cùng một lệnh hoặc áp dụng manifest namespace trước bằng lệnh sau:

kubectl apply -f namespace.yaml

Thiết lập DNS#

n8n thường hoạt động trên một subdomain. Tạo một bản ghi DNS với nhà cung cấp của bạn cho subdomain và trỏ nó đến một địa chỉ tĩnh của phiên bản.

Để tìm địa chỉ của dịch vụ n8n đang chạy trên phiên bản:

  1. Mở phần Clusters của trang Amazon Elastic Kubernetes Service trong bảng điều khiển AWS.
  2. Chọn tên của cluster để mở trang cấu hình của nó.
  3. Chọn tab Resources, sau đó Service and networking > Services.
  4. Chọn dịch vụ n8n và sao chép giá trị Load balancer URLs. Sử dụng giá trị này với hậu tố là cổng dịch vụ n8n (5678) cho DNS.

Sử dụng HTTP

Hướng dẫn này sử dụng các kết nối HTTP cho các dịch vụ mà nó xác định, ví dụ: trong n8n-deployment.yaml. Tuy nhiên, nếu bạn nhấp vào giá trị Load balancer URLs, EKS sẽ đưa bạn đến URL “HTTPS” dẫn đến lỗi. Để giải quyết vấn đề này, khi bạn mở subdomain n8n, hãy đảm bảo sử dụng HTTP.

Xóa tài nguyên#

Nếu bạn cần xóa thiết lập, bạn có thể xóa các tài nguyên được tạo bởi các manifest bằng lệnh sau:

Các bước tiếp theo#

Zalo
Cảnh báo: Hiện nay có rất nhiều đơn vị SỬ DỤNG LẠI các THÔNG TIN NỘI DUNG ĐÀO TẠO của KHÓA HỌC SALE OTA TỪ OTAVN mà không đảm bảo chất lượng và hỗ trợ về sau. Các bạn muốn đăng ký học SALE OTA uy tín hãy liên hệ trực tiếp với OTA Việt Nam. OTAVN có xây dựng các hình thức đào tạo trực tiếp offline cho doanh nghiệp, đào tạo 1-1 từ xa và tự học online. Chúng tôi có 2 tên miền là: otavietnam.com và tranxuanloc.com (founder) có chia sẻ và đăng tải các thông tin liên quan về OTA/ Sale OTA/ Digital Marketing/ Thiết kế website... Với khách hàng/ đối tác đã sử dụng dịch vụ của OTAVN sẽ được HỖ TRỢ MIỄN PHÍ các vấn đề phát sinh, tư vấn giải đáp sau khi đã hoàn thành khóa học hoặc sau khi đã sử dụng dịch vụ trọn đời. Hotline:0934552325 (iMessage/ Zalo/ Whatsapp) - Email: info@scovietnam.com
Điều khoản sử dụng chung | Chính sách bảo vệ quyền riêng tư | Chính sách hoàn tiền học | Quy trình đặt hàng | Hình thức thanh toán

Chú ý: Nội dung khóa học online có thể thay đổi mà không cần báo trước.