PIN AI ra mắt ứng dụng tạo AI cá nhân DeepSeek, Llama trên điện thoại

PIN AI ra mắt ứng dụng di động: Tạo mô hình AI cá nhân DeepSeek hoặc Llama trên điện thoại của bạn

Ngày 13 tháng 2 năm 2025, 09:09 AM

Một người phụ nữ tóc nâu mặc váy cam đứng nhìn điện thoại thông minh được bao quanh bởi các hình vuông và đường mạch màu cam trên nền xanh đậm trong ảnh AI
Tín dụng: VentureBeat được tạo bằng Midjourney

Tham gia bản tin hàng ngày và hàng tuần của chúng tôi để cập nhật những thông tin mới nhất và nội dung độc quyền về lĩnh vực AI hàng đầu. Tìm hiểu thêm


Nhờ Her và nhiều tác phẩm khoa học viễn tưởng khác, thật dễ dàng để tưởng tượng một thế giới nơi mọi người đều có trợ lý AI cá nhân – một người trợ giúp biết chúng ta là ai, nghề nghiệp, sở thích, mục tiêu, đam mê, những điều chúng ta thích và không thích… về cơ bản là điều gì khiến chúng ta “tích tắc”.

Một số công cụ AI ngày nay cung cấp một phiên bản khá sơ sài, giới hạn của chức năng này, chẳng hạn như CharacterAItính năng bộ nhớ mới của ChatGPT. Nhưng chúng vẫn dựa vào thông tin của bạn được chuyển đến các máy chủ của công ty bên ngoài tầm kiểm soát của bạn để phân tích và xử lý. Chúng cũng không cho phép nhiều giao dịch của bên thứ ba, nghĩa là trợ lý AI của bạn không thể mua hàng thay mặt bạn.

Đối với những người đặc biệt lo ngại về quyền riêng tư hoặc muốn một mô hình AI thực sự tự đào tạo lại để thích ứng với các tùy chọn cá nhân – tạo ra một trợ lý AI độc đáo không giống ai trên toàn thế giới – thì về cơ bản bạn phải tự mình làm.

Cho đến bây giờ: Một công ty khởi nghiệp mới PIN AI (không nên nhầm lẫn với thiết bị phần cứng bị đánh giá kém AI Pin của Humane) đã xuất hiện từ chế độ ẩn danh để ra mắt ứng dụng di động đầu tiên của mình, cho phép người dùng chọn một mô hình AI nguồn mở cơ bản chạy trực tiếp trên điện thoại thông minh của họ (hỗ trợ iOS/Apple iPhone và Google Android) và vẫn riêng tư và hoàn toàn tùy chỉnh theo sở thích của họ.

Video về ứng dụng di động PIN AI đang hoạt động. Tín dụng: PIN AI

Được xây dựng với cơ sở hạ tầng phi tập trung ưu tiên quyền riêng tư, PIN AI nhằm mục đích thách thức sự thống trị của các công ty công nghệ lớn đối với dữ liệu người dùng bằng cách đảm bảo rằng AI cá nhân phục vụ các cá nhân – chứ không phải lợi ích của công ty.

Được thành lập bởi các chuyên gia về AI và blockchain từ Columbia, MIT và Stanford, PIN AI được dẫn dắt bởi Davide Crapis, Ben Wu và Bill Sun, những người có kinh nghiệm sâu sắc trong nghiên cứu AI, cơ sở hạ tầng dữ liệu quy mô lớn và bảo mật blockchain.

Công ty được hỗ trợ bởi các nhà đầu tư lớn, bao gồm a16z Crypto (CSX), Hack VC, Sequoia Capital U.S. Scout và những người tiên phong blockchain nổi tiếng như người sáng lập Near Illia Polosukhin, chủ tịch SOL Foundation Lily Liu, người sáng lập SUI Evan Cheng và đồng sáng lập Polygon Sandeep Nailwal.

AI cá nhân được hiện thực hóa

PIN AI giới thiệu một giải pháp thay thế cho các mô hình AI tập trung thu thập và kiếm tiền từ dữ liệu người dùng. Không giống như AI dựa trên đám mây do các công ty công nghệ lớn kiểm soát, AI cá nhân của PIN AI chạy cục bộ trên thiết bị của người dùng, cho phép trải nghiệm AI an toàn, tùy chỉnh mà không cần giám sát của bên thứ ba.

AI Agents

Trọng tâm của PIN AI là một ngân hàng dữ liệu do người dùng kiểm soát, cho phép các cá nhân lưu trữ và quản lý thông tin cá nhân của họ đồng thời cho phép các nhà phát triển truy cập vào thông tin chi tiết đa danh mục, ẩn danh – từ thói quen mua sắm đến chiến lược đầu tư. Cách tiếp cận này đảm bảo rằng các dịch vụ được hỗ trợ bởi AI có thể hưởng lợi từ dữ liệu theo ngữ cảnh chất lượng cao mà không ảnh hưởng đến quyền riêng tư của người dùng.

“Vấn đề ngày nay là tất cả những người chơi lớn đều tuyên bố họ làm AI cá nhân – Apple, Google, Meta – nhưng họ thực sự đang làm gì?” Davide Crapis, đồng sáng lập của PIN AI, cho biết trong một cuộc phỏng vấn trực tiếp với VentureBeat vào đầu tháng này. “Họ đang lấy mỏ vàng trong điện thoại của bạn và khai thác tất cả thông tin đó để tìm ra những gì cần đẩy cho bạn.”

Giao diện máy tính để bàn của PIN AI
Giao diện máy tính để bàn của PIN AI.

PIN AI đã ra mắt phiên bản chỉ dành cho web vào cuối năm ngoái và đã đạt được sức hút to lớn, với hơn 2 triệu người dùng alpha thông qua Telegram và cộng đồng Discord gồm 220.000 thành viên.

Ứng dụng di động mới ra mắt tại Hoa Kỳ và nhiều khu vực cũng bao gồm các tính năng chính như:

  • “Mô hình Thần thánh” (người bảo vệ dữ liệu): Giúp người dùng theo dõi mức độ hiểu biết của AI về họ, đảm bảo nó phù hợp với sở thích của họ.
  • Hỏi PIN AI: Một trợ lý AI được cá nhân hóa có khả năng xử lý các tác vụ như lập kế hoạch tài chính, điều phối du lịch và đề xuất sản phẩm.
  • Tích hợp nguồn mở: Người dùng có thể kết nối các ứng dụng như Gmail, nền tảng truyền thông xã hội và dịch vụ tài chính với AI cá nhân của họ, đào tạo nó để phục vụ họ tốt hơn mà không tiết lộ dữ liệu cho bên thứ ba.

“Với ứng dụng của chúng tôi, bạn có một AI cá nhân là mô hình của bạn,” Crapis nói thêm. “Bạn sở hữu các trọng số và nó hoàn toàn riêng tư, với khả năng tinh chỉnh bảo toàn quyền riêng tư.”

Ông nói với VentureBeat rằng ứng dụng hiện hỗ trợ một số mô hình AI nguồn mở làm mô hình cơ bản mà từ đó người dùng có thể bắt đầu cá nhân hóa trợ lý của họ, bao gồm các phiên bản nhỏ của DeepSeek và Llama của Meta.

Ảnh chụp màn hình quảng cáo của PIN AI
Ảnh chụp màn hình quảng cáo của ứng dụng di động PIN AI. Tín dụng: PIN AI

Sổ cái dựa trên Blockchain để xác thực và truy cập dữ liệu

Cơ sở hạ tầng của PIN AI được xây dựng trên các giao thức blockchain, đảm bảo tính bảo mật, minh bạch và khả năng kiểm soát của người dùng.

  • Dữ liệu được lưu trữ cục bộ: Không giống như các hệ thống AI dựa trên đám mây, PIN AI giữ tất cả dữ liệu người dùng trên thiết bị cá nhân thay vì máy chủ tập trung.
  • Môi trường thực thi đáng tin cậy (TEE) để xác thực: Thông tin xác thực và tính toán nhạy cảm xảy ra trong một vùng an toàn, ngăn chặn truy cập bên ngoài – ngay cả từ chính PIN AI.
  • Sổ đăng ký Blockchain để minh bạch tài chính: Các hành động chính được xác thực trên chuỗi trong khi dữ liệu người dùng vẫn riêng tư và được lưu trữ cục bộ.
  • Khả năng tương tác với các giao thức AI mới nổi: PIN AI được thiết kế để tích hợp với các dự án blockchain và AI phi tập trung trong tương lai, đảm bảo khả năng thích ứng lâu dài.

Bằng cách phi tập trung cơ sở hạ tầng AI, PIN AI nhằm mục đích cân bằng quyền riêng tư, bảo mật và hiệu quả, cho phép người dùng giữ quyền sở hữu dấu chân kỹ thuật số của họ đồng thời vẫn hưởng lợi từ tự động hóa và thông tin chi tiết do AI điều khiển.

“Chúng tôi đã thiết kế giao thức của mình xung quanh quyền riêng tư bằng cách sử dụng các phương pháp mật mã hiện đại như TTE,” Crapis nói. Không ai – thậm chí cả chúng tôi – có thể xem khóa xác thực của bạn,”

Tập trung vào AI dựa trên người dùng

Sự ra mắt của PIN AI diễn ra vào thời điểm mà những lo ngại về quyền riêng tư dữ liệu và độc quyền AI đang ở mức cao nhất mọi thời đại.

Đồng sáng lập Wu nhấn mạnh tầm quan trọng của chủ quyền dữ liệu, nói rằng, “Chúng tôi đang hợp nhất những người xây dựng và nhà phát triển AI nguồn mở để xây dựng nền tảng cho AI cá nhân mở, nơi người dùng sở hữu 100% AI.”

Sun giải thích tầm nhìn rộng hơn: “Hãy nghĩ về nó như J.A.R.V.I.S. từ Người Sắt – hệ thống điều hành trung thành nhất phát triển thành trợ lý AI cá nhân của bạn.”

Crapis tiếp tục trình bày chi tiết về phương pháp tiếp cận của PIN AI, nói rằng, “Chúng tôi đang tạo ra một ngân hàng dữ liệu cho phép bạn lấy lại dữ liệu cá nhân của mình từ các công ty công nghệ lớn – dữ liệu Google, dữ liệu Facebook, thậm chí cả Robinhood và dữ liệu tài chính – để AI cá nhân của bạn có thể chạy trên đó.”

Ngoài việc sử dụng cá nhân, PIN AI hình dung ra một mạng lưới các tác nhân AI cá nhân có thể tương tác với các dịch vụ bên ngoài thay mặt người dùng.

AI cá nhân của bạn có thể phối hợp với các AI cá nhân khác, tương tác với AI doanh nghiệp và thậm chí tự động thực hiện các tác vụ như mua quà cho một người bạn dựa trên các cuộc trò chuyện trước đây,” Sun giải thích.

Những người đồng sáng lập PIN AI nói với VentureBeat rằng họ sẽ kiếm tiền bằng cách tính phí giao dịch để các tác nhân AI khác truy cập thông tin của người dùng – với sự cho phép của họ.

Điều gì tiếp theo cho PIN AI?

Ảnh chụp màn hình quảng cáo của PIN AI

Với công nghệ AI đang phát triển nhanh chóng, PIN AI nhằm mục đích xác định tương lai của AI phi tập trung, được cá nhân hóa. Bằng cách kết hợp trí thông minh trên thiết bị, bảo mật blockchain và tích hợp nguồn mở, công ty cung cấp một giải pháp thay thế cho các mô hình AI do các công ty công nghệ lớn kiểm soát, đảm bảo rằng các cá nhân – chứ không phải các tập đoàn – sở hữu và kiểm soát dữ liệu của họ.

“Mô hình kinh doanh của chúng tôi rất đơn giản: Thay vì một công ty tập trung như Apple hoặc Google cắt một khoản lớn, chúng tôi lấy một khoản hoa hồng nhỏ trên các tương tác của tác nhân – giống như phí gas trên Ethereum,” Wu giải thích.

“Đây chỉ là sự khởi đầu,” Sun nói thêm. “Trong tương lai, AI của bạn sẽ kết nối với mọi thứ – máy tính để bàn, thiết bị thông minh, thậm chí cả robot hình người của bạn – trong khi vẫn giữ nguyên quyền riêng tư của bạn.”

Ứng dụng PIN AI hiện đã có sẵn, cung cấp một cấp độ mới về quyền riêng tư, bảo mật và cá nhân hóa trong trải nghiệm do AI điều khiển. Truy cập trang web của PIN AI hoặc tải xuống ứng dụng để bắt đầu xây dựng AI cá nhân của bạn.

Thông tin chi tiết hàng ngày về các trường hợp sử dụng kinh doanh với VB Daily

Nếu bạn muốn gây ấn tượng với sếp của mình, VB Daily sẽ giúp bạn. Chúng tôi cung cấp cho bạn thông tin nội bộ về những gì các công ty đang làm với AI tạo sinh, từ những thay đổi về quy định đến các triển khai thực tế, để bạn có thể chia sẻ thông tin chi tiết để có ROI tối đa.

Đọc Chính sách bảo mật của chúng tôi

Cảm ơn bạn đã đăng ký. Xem thêm bản tin VB tại đây.

Đã xảy ra lỗi.

SAP và Databricks hợp tác: Nâng tầm AI với Business Data Cloud

SAP Tích Hợp Databricks: Nâng Cao Khả Năng AI Với Business Data Cloud Mới

Ngày 13 tháng 2 năm 2025

Databricks Logo

Logo Databricks

Gartner Magic Quadrant

Gartner Magic Quadrant

Giới Thiệu Về Sự Hợp Tác Giữa SAP và Databricks

Gã khổng lồ phần mềm Đức SAP đang nâng cao tiêu chuẩn về dữ liệu để hỗ trợ các trường hợp sử dụng AI thế hệ mới. Công ty gần đây đã giới thiệu Business Data Cloud (BDC), một sản phẩm SaaS mới áp dụng kiến trúc lakehouse để giúp các nhóm làm giàu dữ liệu hệ sinh thái SAP của họ bằng các tài sản dữ liệu bên ngoài từ các hệ thống nguồn khác nhau và thúc đẩy giá trị dài hạn. Sự hợp tác chiến lược này hứa hẹn sẽ thay đổi cách các doanh nghiệp quản lý và tận dụng dữ liệu của mình.

Sản phẩm này là kết quả của sự hợp tác mang tính bước ngoặt với Databricks, một công ty hàng đầu trong lĩnh vực hệ sinh thái dữ liệu. Về cơ bản, SAP BDC tích hợp nguyên bản các khả năng và dữ liệu từ nền tảng trí tuệ dữ liệu của Databricks. Điều này loại bỏ nhu cầu tạo và duy trì các pipeline phức tạp, đồng thời tạo ra một nền tảng dữ liệu hài hòa cho các tác nhân AI tiên tiến và khối lượng công việc phân tích.

Big Book of Data Warehousing and BI

Big Book of Data Warehousing and BI

Một số doanh nghiệp, bao gồm Henkel, đang sử dụng BDC để cung cấp năng lượng cho các dự án AI của họ. Bản thân SAP đang sử dụng BDC được làm phong phú để cung cấp năng lượng cho một kỷ nguyên mới của Joule agents tập trung vào các lĩnh vực cụ thể như tài chính, dịch vụ và bán hàng. Sự phát triển này khiến SAP trở thành một người chơi đáng chú ý khác, giống như Microsoft và Salesforce, củng cố nền tảng dữ liệu của mình để đặt nền móng cho AI.

Nền Tảng Dữ Liệu Được Cải Tiến Của SAP

Trong những năm qua, SAP đã khẳng định mình là một trong những công ty hàng đầu trong lĩnh vực hoạch định nguồn lực doanh nghiệp (ERP) với S4/HANA cloud và một số ứng dụng quan trọng cho tài chính, chuỗi cung ứng và quản lý vốn nhân lực. Các ứng dụng này tạo ra dữ liệu quy mô petabyte với bối cảnh kinh doanh và đã cung cấp năng lượng cho giá trị AI và phân tích cho các nhóm, thông qua nền tảng công nghệ kinh doanh (BTP) của công ty.

Cho đến nay, SAP BTP đã có một datasphere cho phép các doanh nghiệp kết nối dữ liệu từ SAP với thông tin từ các hệ thống không phải của SAP và cuối cùng liên kết nó với SAP analytics cloud và các công cụ nội bộ khác cho các ứng dụng hạ nguồn. Giờ đây, công ty đang phát triển trải nghiệm này thành BDC thống nhất, được cung cấp nguyên bản bởi Databricks.

SAP Business Data Cloud Mang Lại Điều Gì?

Điều này có nghĩa là SAP đang áp dụng kiến trúc lakehouse, tạo ra một nền tảng thống nhất kết hợp tất cả các sản phẩm dữ liệu SAP – từ dữ liệu tài chính, chi tiêu và chuỗi cung ứng trong SAP S/4HANA và SAP Ariba, đến dữ liệu học tập và tài năng trong SAP SuccessFactors – với dữ liệu có cấu trúc và phi cấu trúc từ các hệ thống quan trọng khác nhau, được lưu trữ trong Databricks.

Databricks OG Universal

Databricks OG Universal

Khi dữ liệu được thống nhất (thông qua chia sẻ hai chiều không sao chép), SAP BDC có thể tận dụng các khả năng cụ thể của Databricks cho các khối lượng công việc như kho dữ liệu, kỹ thuật dữ liệu và AI, tất cả đều được quản lý bởi danh mục hợp nhất Databricks.

Chúng tôi lấy tất cả các sản phẩm dữ liệu khác nhau này, được cung cấp và quản lý bởi SAP… và chúng tôi sẽ duy trì chúng vào lakehouse của SAP business data cloud, trong một mô hình dữ liệu hài hòa, Irfan Khan, chủ tịch và CPO cho dữ liệu và phân tích của SAP, nói với VentureBeat. Lakehouse này sẽ có các khả năng Databricks để người dùng xây dựng dựa trên.

Trước đây, Khan nói, những người dùng có phần lớn dữ liệu của họ trong Databricks và dữ liệu SAP trong S4 hoặc BW phải xây dựng và quản lý các pipeline phức tạp và sao chép tất cả các tài sản dữ liệu vào nền tảng SAP trong khi xây dựng lại toàn bộ ngữ nghĩa và mô hình dữ liệu cốt lõi cùng một lúc. Cách tiếp cận này tốn thời gian và yêu cầu họ phải cập nhật các pipeline của mình với dữ liệu thay đổi. Tuy nhiên, với tích hợp gốc của Databricks, người dùng có quyền truy cập vào mọi thứ ở một nơi và có thể trực tiếp thực hiện kỹ thuật dữ liệu, khoa học dữ liệu và các tác vụ khác trên BDC.

Trong Datasphere, bạn đã có một phương tiện để làm một điều tương tự, nhưng tất cả đều là các sản phẩm dữ liệu do khách hàng quản lý, Khan giải thích. Vì vậy, bạn phải vào nền tảng dữ liệu, chọn nguồn dữ liệu và xây dựng các pipeline dữ liệu. Sau đó, bạn phải tìm ra những gì cần sao chép. Ở đây, tất cả đều do SAP quản lý.

Ý Nghĩa Của Sự Hợp Tác Này Đối Với Doanh Nghiệp

Về cốt lõi, sản phẩm được hỗ trợ bởi Databricks này cung cấp cho các nhóm một cách nhanh hơn, đơn giản hơn để thống nhất và huy động các tài sản dữ liệu kinh doanh của họ bị khóa trong môi trường SAP và Databricks.

Dữ liệu kết hợp, được tăng cường về mặt ngữ nghĩa sẽ mở đường cho việc xây dựng các ứng dụng AI thế hệ tiếp theo nhằm vào các trường hợp sử dụng khác nhau. Ví dụ: một nhóm có thể sử dụng các khả năng AI Mosaic của Databricks để phát triển các tác nhân AI cụ thể theo miền có thể sử dụng bối cảnh từ dữ liệu kinh doanh của SAP cũng như dữ liệu cụ thể của Databricks bên ngoài để tự động hóa một số chức năng quản lý vốn nhân lực hoặc chuỗi cung ứng.

Đáng chú ý, bản thân SAP đang khai thác nền tảng dữ liệu nâng cao này để cung cấp năng lượng cho các tác nhân Joule sẵn sàng sử dụng nhằm tự động hóa các tác vụ và tăng tốc quy trình làm việc trên các chức năng bán hàng, dịch vụ và tài chính. Các tác nhân này hiểu sâu sắc các quy trình đầu cuối và cộng tác để giải quyết các vấn đề kinh doanh phức tạp.

Ngoài ra, BDC sẽ có khả năng ứng dụng thông tin chi tiết, cho phép người dùng kết nối các sản phẩm dữ liệu và mô hình AI của họ với dữ liệu thời gian thực bên ngoài để cung cấp phân tích và lập kế hoạch nâng cao trên các chức năng kinh doanh.

Thêm Đối Tác Dữ Liệu Sắp Ra Mắt

Mặc dù quan hệ đối tác nhấn mạnh một động thái lớn cho cả Databricks và SAP, nhưng điều quan trọng cần lưu ý là công ty dữ liệu do Ali Ghodsi dẫn đầu sẽ không phải là công ty duy nhất củng cố BDC.

Theo Khan, chia sẻ dữ liệu và tính mở của hệ sinh thái là các nguyên tắc thiết kế đầu tiên của công ty – và chúng sẽ mở rộng sang các nền tảng dữ liệu khác thông qua các khả năng kết nối đối tác của họ. Điều này có nghĩa là người dùng doanh nghiệp sẽ có thể chọn nền tảng họ thích (hoặc bị khóa vào) và chia sẻ dữ liệu hai chiều cho các trường hợp sử dụng được nhắm mục tiêu.

Databricks OG Universal 1

Databricks OG Universal 1

Tóm Tắt và Kết Luận

Sự hợp tác giữa SAP và Databricks để tạo ra Business Data Cloud là một bước tiến lớn trong việc tích hợp và quản lý dữ liệu cho doanh nghiệp. Bằng cách tận dụng kiến trúc lakehouse và các khả năng AI tiên tiến, BDC hứa hẹn sẽ giúp các doanh nghiệp khai thác tối đa giá trị từ dữ liệu của mình, đồng thời đơn giản hóa quy trình làm việc và tăng cường khả năng cạnh tranh trên thị trường. Đây là một xu hướng quan trọng trong lĩnh vực công nghệ thông tin, và chúng ta có thể kỳ vọng sẽ thấy nhiều sự hợp tác tương tự trong tương lai.

Các Câu Hỏi Thường Gặp (FAQ)

Business Data Cloud (BDC) là gì?

BDC là một sản phẩm SaaS mới của SAP, được xây dựng trên kiến trúc lakehouse, cho phép các doanh nghiệp làm giàu dữ liệu SAP của họ bằng các tài sản dữ liệu bên ngoài từ các hệ thống nguồn khác nhau.

Lợi ích của việc sử dụng SAP BDC là gì?

BDC giúp đơn giản hóa quy trình quản lý dữ liệu, tăng cường khả năng AI, và cung cấp một nền tảng dữ liệu hài hòa cho các tác nhân AI tiên tiến và khối lượng công việc phân tích.

Những doanh nghiệp nào đang sử dụng SAP BDC?

Một số doanh nghiệp, bao gồm Henkel, đang sử dụng BDC để cung cấp năng lượng cho các dự án AI của họ.

Astro Observe: Giải pháp đảm bảo độ tin cậy dữ liệu cho AI

Rào Cản Lớn Nhất Của AI? Độ Tin Cậy Của Dữ Liệu. Nền Tảng Mới Của Astronomer Giải Quyết Thách Thức Này

Rào cản lớn nhất của AI là gì?

Trong thế giới công nghệ ngày nay, trí tuệ nhân tạo (AI) đang ngày càng trở nên quan trọng hơn bao giờ hết. Tuy nhiên, một trong những rào cản lớn nhất đối với sự phát triển và ứng dụng rộng rãi của AI chính là độ tin cậy của dữ liệu. Nếu dữ liệu không đáng tin cậy, các mô hình AI sẽ đưa ra những dự đoán và quyết định sai lệch, gây ra hậu quả nghiêm trọng.

Sơ đồ trang sản phẩm

Để giải quyết vấn đề này, Astronomer, công ty đứng sau phần mềm điều phối Apache Airflow, đã ra mắt nền tảng Astro Observe. Đây là một bước tiến quan trọng, đánh dấu sự mở rộng của Astronomer từ một công ty chỉ tập trung vào một sản phẩm duy nhất, trở thành một nhà cung cấp nền tảng data operations cạnh tranh trên thị trường.

Vấn Đề Về Độ Tin Cậy Của Dữ Liệu Trong AI

Các doanh nghiệp ngày nay đang phải đối mặt với nhiều khó khăn trong việc triển khai các sáng kiến AI và duy trì các data pipeline đáng tin cậy ở quy mô lớn. Một trong những vấn đề lớn nhất là đảm bảo rằng dữ liệu được sử dụng để huấn luyện và vận hành các mô hình AI là chính xác, đầy đủ và nhất quán.

VPN

Nếu dữ liệu không đáp ứng được các tiêu chuẩn này, các mô hình AI có thể đưa ra những dự đoán sai lệch, dẫn đến các quyết định kinh doanh không chính xác hoặc thậm chí gây ra các vấn đề pháp lý. Do đó, việc đảm bảo độ tin cậy của dữ liệu là một yếu tố then chốt để thành công trong việc ứng dụng AI.

Astro Observe: Giải Pháp Toàn Diện Cho Vấn Đề Độ Tin Cậy Của Dữ Liệu

Nền tảng Astro Observe được thiết kế để giúp các tổ chức giám sát và khắc phục sự cố trong các data workflow của họ một cách hiệu quả hơn. Bằng cách kết hợp khả năng điều phối và observability trong một giải pháp duy nhất, Astro Observe giúp giảm đáng kể sự phức tạp mà nhiều công ty phải đối mặt khi quản lý cơ sở hạ tầng dữ liệu của họ.

Theo Julian LaNeve, CTO của Astronomer, trước đây, khách hàng của họ phải tìm đến Astronomer để điều phối các data pipeline, và sau đó phải tìm một nhà cung cấp khác để đảm bảo data observability và Airflow observability. Astronomer đang cố gắng giúp khách hàng dễ dàng hơn bằng cách cung cấp mọi thứ trong một nền tảng duy nhất.

Khả Năng Dự Đoán Lỗi Của Pipeline Dựa Trên AI

Vi mạch

Một trong những điểm khác biệt chính của Astro Observe là khả năng dự đoán các lỗi tiềm ẩn của pipeline trước khi chúng ảnh hưởng đến hoạt động kinh doanh. Nền tảng này bao gồm một công cụ insights được hỗ trợ bởi AI, phân tích các mẫu trên hàng trăm triển khai của khách hàng để đưa ra các đề xuất tối ưu hóa chủ động.

LaNeve giải thích rằng, nền tảng này có thể thông báo cho người dùng trước hai giờ khi SLA (Service Level Agreement) có khả năng bị vi phạm do một số chậm trễ ở thượng nguồn. Điều này giúp người dùng chuyển từ một thế giới phản ứng sang một cách tiếp cận chủ động hơn, cho phép họ giải quyết các vấn đề trước khi các bên liên quan ở hạ nguồn phát hiện ra.

Tầm Quan Trọng Trong Bối Cảnh Ứng Dụng AI

Thời điểm ra mắt Astro Observe đặc biệt quan trọng khi các tổ chức đang phải vật lộn với việc vận hành các mô hình AI. Mặc dù phần lớn sự chú ý tập trung vào việc phát triển mô hình, nhưng thách thức duy trì các data pipeline đáng tin cậy để cung cấp dữ liệu cho các mô hình này ngày càng trở nên quan trọng.

chip

LaNeve nhấn mạnh rằng, để đưa các trường hợp sử dụng AI từ nguyên mẫu vào sản xuất, cuối cùng, nó trở thành một vấn đề kỹ thuật dữ liệu. Làm thế nào để cung cấp dữ liệu phù hợp cho các LLM (Large Language Models) một cách kịp thời và liên tục? Đó là những gì các kỹ sư dữ liệu đã làm trong nhiều năm qua.

Sự Chuyển Mình Của Astronomer: Từ Mã Nguồn Mở Đến Quản Lý Dữ Liệu Doanh Nghiệp

Nền tảng Astro Observe được xây dựng dựa trên chuyên môn sâu rộng của Astronomer với Apache Airflow, một nền tảng quản lý workflow mã nguồn mở được tải xuống hơn 30 triệu lần mỗi tháng. Đây là một sự tăng trưởng đáng kể so với chỉ bốn năm trước, khi Airflow 2.0 có ít hơn một triệu lượt tải xuống.

Các Tính Năng Nổi Bật Của Astro Observe

Một tính năng đáng chú ý của Astro Observe là biểu đồ chuỗi cung ứng toàn cầu, cung cấp khả năng hiển thị cả về data lineage và các phụ thuộc hoạt động. Điều này giúp các nhóm hiểu được các mối quan hệ phức tạp giữa các tài sản và workflow dữ liệu khác nhau, điều này rất quan trọng để duy trì độ tin cậy trong các triển khai quy mô lớn.

Nền tảng này cũng giới thiệu khái niệm sản phẩm dữ liệu, cho phép các nhóm nhóm các tài sản dữ liệu liên quan và chỉ định các SLA (Service Level Agreements). Cách tiếp cận này giúp thu hẹp khoảng cách giữa các nhóm kỹ thuật và các bên liên quan trong kinh doanh bằng cách cung cấp các số liệu rõ ràng về độ tin cậy và phân phối dữ liệu.

Phản Hồi Từ Người Dùng Sớm

GumGum, một công ty contextual intelligence, đã thấy những lợi ích từ nền tảng này. Brendan Frick, quản lý kỹ thuật cấp cao tại GumGum, cho biết rằng việc thêm data observability cùng với điều phối cho phép họ đi trước các vấn đề trước khi chúng ảnh hưởng đến người dùng và các hệ thống hạ nguồn.

Bối Cảnh Thị Trường Và Thách Thức Của Astronomer

Sự mở rộng của Astronomer diễn ra vào thời điểm các doanh nghiệp ngày càng tìm cách hợp nhất các công cụ dữ liệu của họ. Với việc các tổ chức thường xuyên sử dụng tám hoặc nhiều công cụ hơn từ các nhà cung cấp khác nhau, việc chuyển sang các nền tảng thống nhất có thể báo hiệu một sự thay đổi lớn hơn trong bối cảnh quản lý dữ liệu doanh nghiệp.

Thách thức đối với Astronomer sẽ là cạnh tranh với các đối thủ observability đã có tên tuổi, đồng thời duy trì vị trí dẫn đầu trong không gian điều phối. Tuy nhiên, sự tích hợp sâu sắc với Airflow và tập trung vào quản lý chủ động có thể mang lại cho họ lợi thế trong thị trường công cụ cơ sở hạ tầng AI đang phát triển nhanh chóng.

Kết Luận

Trong bối cảnh AI ngày càng phát triển, độ tin cậy của dữ liệu đóng vai trò then chốt trong việc đảm bảo tính chính xác và hiệu quả của các mô hình và ứng dụng AI. Nền tảng Astro Observe của Astronomer mang đến một giải pháp toàn diện, giúp các doanh nghiệp giải quyết những thách thức liên quan đến data pipelinedata observability, từ đó thúc đẩy sự phát triển và ứng dụng rộng rãi của AI trong nhiều lĩnh vực khác nhau.

Với sự kết hợp giữa khả năng điều phối mạnh mẽ của Apache Airflow và các tính năng AI tiên tiến, Astro Observe hứa hẹn sẽ trở thành một công cụ không thể thiếu cho các tổ chức muốn khai thác tối đa tiềm năng của dữ liệu và AI.

Các Keyword Liên Quan (Sitemantec Keywords)

  • Trí tuệ nhân tạo (AI)
  • Độ tin cậy của dữ liệu
  • Data pipeline
  • Data observability
  • Apache Airflow
  • Astro Observe
  • Data operations
  • LLM (Large Language Models)
  • SLA (Service Level Agreement)
  • Contextual intelligence

DeepHermes-3: Mô hình AI lý luận đột phá từ Nous Research

Phòng Thí Nghiệm AI “Cá Nhân Hóa, Không Hạn Chế” Nous Research Ra Mắt Mô Hình Lý Luận Đầu Tiên: DeepHermes-3

Giới thiệu về DeepHermes-3: Mô hình AI lý luận đột phá

Trong bối cảnh các mô hình AI lý luận đang ngày càng trở nên phổ biến, DeepHermes-3 nổi lên như một sự đổi mới đáng chú ý. Được phát triển bởi Nous Research, một tập thể kỹ sư với sứ mệnh tạo ra các mô hình AI “cá nhân hóa, không hạn chế”, DeepHermes-3 hứa hẹn mang đến khả năng lý luận và xử lý ngôn ngữ trực quan vượt trội.

DeepHermes-3

Nous Research: Tiên phong trong lĩnh vực AI mở

Nous Research, kể từ khi thành lập tại New York City vào năm 2023, đã tập trung vào việc tinh chỉnh và đào tạo lại các mô hình nguồn mở như Llama của Meta và các mô hình từ startup Mistral của Pháp. Mục tiêu của họ là tạo ra các mô hình AI linh hoạt và dễ tiếp cận, phục vụ nhu cầu đa dạng của người dùng.

DeepHermes-3 Preview, mô hình lý luận mở mới nhất của họ, là một minh chứng cho cam kết này. Nó được mô tả là một “LLM [mô hình ngôn ngữ lớn] thống nhất khả năng lý luận và mô hình ngôn ngữ trực quan”, cho phép người dùng chuyển đổi giữa các quy trình lý luận dài hơn và các phản hồi ngắn hơn, nhanh hơn, ít tốn kém về mặt tính toán hơn.

DeepHermes-3: Sự kết hợp giữa lý luận và trực giác

DeepHermes-3 là một biến thể 8 tỷ tham số (số lượng cài đặt) của Hermes 3, bản thân nó là một biến thể của Llama do Meta phát triển. Điểm đặc biệt của DeepHermes-3 là khả năng tham gia vào các cuộc trao đổi giống như siêu nhận thức, suy nghĩ về bản thân và vai trò của AI so với ý thức của con người, thậm chí gây ra một cuộc khủng hoảng hiện sinh trong các đầu ra của mô hình.

Khả năng của DeepHermes-3

Người dùng có thể tải xuống mã mô hình đầy đủ trên HuggingFace và một phiên bản đã được lượng tử hóa (giảm số lượng bit) và lưu trong định dạng thống nhất do GPT tạo ra (GGUF), được thiết kế để chạy các suy luận mô hình (bản dựng sản xuất thực tế, trái ngược với đào tạo) trên PC và máy chủ cấp tiêu dùng.

Nous Research hy vọng rằng “cách tiếp cận độc đáo của chúng tôi đối với chế độ lý luận có thể chuyển đổi, do người dùng kiểm soát sẽ thúc đẩy sứ mệnh của chúng tôi là cung cấp cho những người sử dụng DeepHermes khả năng điều khiển nhiều hơn cho bất kỳ nhu cầu nào họ có.”

Xây dựng trên Hermes 3: Dữ liệu và phương pháp đào tạo

DeepHermes-3 được xây dựng dựa trên Hermes 3, một tập dữ liệu đa miền được tuyển chọn tỉ mỉ mà Nous Research đã phát triển cho dòng Hermes 3 rộng lớn hơn. Theo Báo cáo Kỹ thuật Hermes 3 được phát hành vào tháng 8, tập dữ liệu này bao gồm khoảng 390 triệu mã thông báo trải rộng trên các miền hướng dẫn và dựa trên lý luận đa dạng.

Dữ liệu và phương pháp đào tạo

Tập dữ liệu được chia thành các danh mục chính sau:

  • Hướng dẫn chung (60,6%): Các lời nhắc rộng, mở tương tự như những lời nhắc được tìm thấy trong các mô hình trò chuyện AI đa năng.
  • Dữ liệu chuyên gia miền (12,8%): Kiến thức chuyên môn trong các lĩnh vực như khoa học, luật và kỹ thuật.
  • Toán học (6,7%): Các tập dữ liệu giải quyết vấn đề nâng cao nhằm cải thiện khả năng lý luận số và logic.
  • Nhập vai và viết sáng tạo (6,1%): Dữ liệu được thiết kế để nâng cao khả năng kể chuyện và đối thoại mô phỏng.
  • Mã hóa và phát triển phần mềm (4,5%): Tạo mã và các tác vụ gỡ lỗi.
  • Sử dụng công cụ, lý luận đại diện và tạo tăng cường truy xuất (RAG) (4,3%): Đào tạo về gọi hàm, lập kế hoạch và truy xuất kiến thức.
  • Tạo nội dung (3,0%): Viết, tóm tắt và các tác vụ đầu ra có cấu trúc.
  • Điều khiển và căn chỉnh (2,5%): Dữ liệu tập trung vào việc làm cho mô hình có khả năng điều khiển cao và đáp ứng các lời nhắc của người dùng.

Ngoài ra, thành viên nhóm Nous Research ẩn danh @Teknium (@Teknium1 trên X) đã viết để trả lời một người dùng trên máy chủ Discord của công ty rằng mô hình đã được đào tạo trên “1M non cots và 150K cots”, hoặc 1 triệu đầu ra không phải CoT và 150.000 đầu ra CoT.

Sự kết hợp dữ liệu này hỗ trợ khả năng độc đáo của DeepHermes-3 trong việc chuyển đổi giữa các phản hồi trực quan và lý luận sâu sắc, có cấu trúc, một tính năng chính giúp phân biệt nó với các LLM khác.

Cách thức hoạt động của chế độ lý luận có thể chuyển đổi

DeepHermes-3 cho phép người dùng kiểm soát độ sâu lý luận của nó bằng cách sử dụng lời nhắc hệ thống. Người dùng phải nhập văn bản sau trước một lời nhắc để “bật” chế độ lý luận của mô hình:

“Bạn là một AI suy nghĩ sâu sắc, bạn có thể sử dụng các chuỗi suy nghĩ cực kỳ dài để xem xét sâu sắc vấn đề và cân nhắc với chính mình thông qua các quy trình lý luận có hệ thống để giúp đưa ra giải pháp chính xác trước khi trả lời. Bạn nên kèm theo những suy nghĩ và độc thoại nội tâm của mình bên trong các thẻ và sau đó cung cấp giải pháp hoặc phản hồi của bạn cho vấn đề.”

Khi chế độ lý luận được bật, mô hình xử lý thông tin trong CoT dài, cho phép nó cân nhắc một cách có hệ thống trước khi tạo ra câu trả lời.

Điều này đạt được bằng cách sử dụng các thẻ <think></think>, nơi độc thoại nội tâm của mô hình được cấu trúc trước khi trình bày một giải pháp cuối cùng.

Ở chế độ phản hồi tiêu chuẩn, mô hình hoạt động giống như một chatbot AI truyền thống hơn, cung cấp các phản hồi nhanh hơn, dựa trên trực giác mà không cần xử lý logic sâu.

Thông tin chi tiết về hiệu suất và phản hồi của cộng đồng

Các điểm chuẩn ban đầu và thử nghiệm cộng đồng đã cung cấp những thông tin chi tiết quan trọng về khả năng của DeepHermes-3:

  • Lý luận toán học: DeepHermes-3 đạt 67% trên các điểm chuẩn MATH, so với 89,1% cho mô hình R1-distilled của DeepSeek. Mặc dù DeepSeek vượt trội hơn trong các tác vụ toán học thuần túy, Nous Research định vị DeepHermes-3 là một mô hình tổng quát hơn với các kỹ năng lý luận và đàm thoại rộng hơn.
  • Cuộc trò chuyện nhiều lượt: Một số người thử nghiệm báo cáo rằng chế độ lý luận kích hoạt chính xác trên phản hồi đầu tiên, nhưng có thể không duy trì trong các cuộc trò chuyện mở rộng. Các thành viên cộng đồng đề xuất thực thi \n ở đầu mỗi phản hồi, một phương pháp cũng được sử dụng trong DeepSeek-R1.
  • Gọi hàm: DeepHermes-3 hỗ trợ sử dụng công cụ, mặc dù nó không được đào tạo rõ ràng để tích hợp chế độ lý luận và gọi hàm đồng thời. Một số người dùng báo cáo rằng mặc dù kết hợp cả hai tính năng giúp cải thiện độ chính xác trong việc thực thi các công cụ, nhưng kết quả vẫn không nhất quán.

Nous Research đang tích cực thu thập phản hồi của người dùng để tinh chỉnh tính bền bỉ của lý luận và cải thiện các tương tác nhiều lượt.

Triển khai và hiệu suất phần cứng

DeepHermes-3 có sẵn để thử nghiệm trên Hugging Face, với các phiên bản lượng tử hóa GGUF được tối ưu hóa cho phần cứng công suất thấp. Mô hình tương thích với vLLM để suy luận và sử dụng định dạng Llama-Chat cho đối thoại nhiều lượt.

Triển khai và hiệu suất

Một người dùng đã báo cáo tốc độ xử lý là 28,98 mã thông báo mỗi giây trên MacBook Pro M4 Max, chứng minh rằng mô hình có thể chạy hiệu quả trên phần cứng tiêu dùng.

Giấy phép Meta Llama 3 Community License

DeepHermes-3 dựa trên mô hình Llama 3 của Meta và chịu sự điều chỉnh của Giấy phép Meta Llama 3 Community License. Mặc dù mô hình có sẵn miễn phí để sử dụng, sửa đổi và phân phối lại, nhưng một số điều kiện được áp dụng:

  • Phân phối lại: Bất kỳ mô hình hoặc triển khai phái sinh nào phải bao gồm giấy phép gốc và hiển thị nổi bật “Được xây dựng bằng Meta Llama 3”.
  • Hạn chế đối với đào tạo mô hình: Người dùng không thể sử dụng DeepHermes-3 (hoặc Llama 3) để đào tạo các LLM khác, ngoại trừ các tác phẩm phái sinh dựa trên Llama 3 một cách rõ ràng.
  • Cấp phép thương mại cho các công ty lớn: Các tổ chức có hơn 700 triệu người dùng hoạt động hàng tháng phải có được sự chấp thuận rõ ràng từ Meta trước khi sử dụng mô hình này cho mục đích thương mại.
  • Chính sách sử dụng chấp nhận được: Người dùng phải tuân thủ các hạn chế sử dụng AI của Meta, cấm các ứng dụng trong các lĩnh vực như thông tin sai lệch, giám sát và tạo nội dung có hại.

Các quy tắc phân phối lại và các giới hạn thương mại này có nghĩa là DeepHermes-3 không hoàn toàn là nguồn mở theo nghĩa truyền thống, mặc dù nó có sẵn trên Hugging Face, không giống như mô hình lý luận R1 của đối thủ DeepSeek của Trung Quốc, có sẵn theo Giấy phép MIT cho phép.

Hướng tới Hermes 4

DeepHermes-3 được phát triển bởi @teknium, @emozilla, @Gifted Gummy Bee, @hjc-puro và @jsupha, với Nous Research ghi nhận cộng đồng nguồn mở đã đóng góp vào các tập dữ liệu, công cụ đánh giá và đào tạo mô hình.

Nous Research coi mô hình xem trước này là một bước đệm hướng tới bản phát hành lớn tiếp theo, Hermes 4, dự kiến sẽ tinh chỉnh hơn nữa khả năng lý luận và đàm thoại của nó.

Kết luận: Tương lai của AI cá nhân hóa và không hạn chế

DeepHermes-3 đại diện cho một bước tiến quan trọng trong lĩnh vực AI, mang đến khả năng lý luận mạnh mẽ và khả năng tùy chỉnh cao cho người dùng. Với sự hỗ trợ từ cộng đồng nguồn mở và cam kết của Nous Research đối với AI “cá nhân hóa, không hạn chế”, DeepHermes-3 hứa hẹn sẽ mở ra những ứng dụng mới và thú vị trong nhiều lĩnh vực khác nhau.

Hy vọng bài viết này đã cung cấp cho bạn cái nhìn tổng quan về DeepHermes-3. Hãy theo dõi để cập nhật thêm thông tin về Hermes 4 và những phát triển mới nhất trong lĩnh vực AI.

Từ khóa liên quan:

  • DeepHermes-3
  • Nous Research
  • AI lý luận
  • Mô hình ngôn ngữ lớn (LLM)
  • AI cá nhân hóa
  • AI không hạn chế
  • Hermes 3
  • Hermes 4
  • Nguồn mở AI
  • Meta Llama 3

Độ tin cậy dữ liệu: Thách thức AI và giải pháp từ Astronomer

Độ Tin Cậy Dữ Liệu: Thách Thức Lớn Nhất của AI và Giải Pháp từ Nền Tảng Astronomer

Trong bối cảnh trí tuệ nhân tạo (AI) ngày càng phát triển, độ tin cậy của dữ liệu nổi lên như một trong những thách thức lớn nhất. Các mô hình AI, dù mạnh mẽ đến đâu, cũng chỉ có thể đưa ra kết quả chính xác khi được cung cấp dữ liệu chất lượng cao và đáng tin cậy. Nền tảng mới của Astronomer ra đời nhằm giải quyết vấn đề này, hứa hẹn mang lại một cuộc cách mạng trong quản lý và vận hành dữ liệu cho các ứng dụng AI.

Ảnh minh họa về độ tin cậy dữ liệu và AI

Vấn Đề Dữ Liệu Thiếu Tin Cậy: Rào Cản Cho Sự Phát Triển của AI

AI đã chứng minh được tiềm năng to lớn trong nhiều lĩnh vực, từ y tế, tài chính đến sản xuất và dịch vụ khách hàng. Tuy nhiên, để khai thác tối đa tiềm năng này, các doanh nghiệp cần đảm bảo rằng dữ liệu họ sử dụng là chính xác, đầy đủ và nhất quán. Dữ liệu thiếu tin cậy có thể dẫn đến những quyết định sai lầm, gây thiệt hại về tài chính và uy tín cho doanh nghiệp.

Nguyên nhân của dữ liệu thiếu tin cậy:

  • Dữ liệu lỗi thời: Thông tin không được cập nhật thường xuyên.
  • Dữ liệu không đầy đủ: Thiếu các thông tin quan trọng.
  • Dữ liệu không nhất quán: Mâu thuẫn giữa các nguồn dữ liệu khác nhau.
  • Dữ liệu bị sai lệch: Do lỗi nhập liệu hoặc xử lý.

Astro Observe: Giải Pháp Toàn Diện từ Astronomer

Astronomer, công ty đứng sau phần mềm điều phối Apache Airflow, đã ra mắt Astro Observe, một nền tảng mới được thiết kế để giúp các tổ chức giám sát và khắc phục sự cố trong quy trình làm việc dữ liệu của họ một cách hiệu quả hơn. Astro Observe kết hợp khả năng điều phối và khả năng quan sát dữ liệu trong một giải pháp duy nhất, giúp giảm độ phức tạp trong việc quản lý cơ sở hạ tầng dữ liệu.

Astro Observe

Theo Julian LaNeve, CTO của Astronomer, trước đây, khách hàng của họ phải tìm đến nhiều nhà cung cấp khác nhau cho việc điều phối và quan sát dữ liệu. Astro Observe giúp đơn giản hóa quy trình này bằng cách cung cấp mọi thứ trong một nền tảng duy nhất.

Phân Tích Dự Đoán Dựa Trên AI: Ngăn Chặn Lỗi Pipeline

Một trong những điểm khác biệt chính của Astro Observe là khả năng dự đoán các lỗi tiềm ẩn trong pipeline trước khi chúng ảnh hưởng đến hoạt động kinh doanh. Nền tảng này bao gồm một “công cụ thông tin chi tiết” được hỗ trợ bởi AI, phân tích các mẫu trên hàng trăm triển khai của khách hàng để đưa ra các đề xuất chủ động để tối ưu hóa.

LaNeve giải thích rằng nền tảng này có thể thông báo cho người dùng trước hai giờ khi SLA (Service Level Agreement) có khả năng bị bỏ lỡ do sự chậm trễ ở thượng nguồn. Điều này giúp người dùng chuyển từ trạng thái phản ứng sang chủ động hơn, cho phép họ giải quyết các vấn đề trước khi các bên liên quan ở hạ nguồn phát hiện ra.

Thời điểm ra mắt Astro Observe đặc biệt quan trọng khi các tổ chức đang vật lộn với việc đưa các mô hình AI vào hoạt động. Trong khi phần lớn sự chú ý tập trung vào phát triển mô hình, thì việc duy trì các pipeline dữ liệu đáng tin cậy để cung cấp cho các mô hình này ngày càng trở nên quan trọng.

LaNeve nhấn mạnh rằng để đưa các trường hợp sử dụng AI từ nguyên mẫu đến sản xuất, cuối cùng đó là một vấn đề kỹ thuật dữ liệu. Các kỹ sư dữ liệu phải đảm bảo cung cấp dữ liệu phù hợp cho các LLM (Large Language Models) một cách kịp thời và liên tục.

Quản lý dữ liệu doanh nghiệp

Astronomer: Từ Thành Công Mã Nguồn Mở Đến Quản Lý Dữ Liệu Doanh Nghiệp

Astro Observe được xây dựng dựa trên kinh nghiệm sâu rộng của Astronomer với Apache Airflow, một nền tảng quản lý quy trình làm việc mã nguồn mở đã được tải xuống hơn 30 triệu lần mỗi tháng. Con số này đã tăng đáng kể so với chỉ bốn năm trước, khi Airflow 2.0 có ít hơn một triệu lượt tải xuống.

Một tính năng đáng chú ý là “biểu đồ chuỗi cung ứng toàn cầu”, cung cấp khả năng hiển thị cả dòng dõi dữ liệu và các phụ thuộc hoạt động. Điều này giúp các nhóm hiểu được các mối quan hệ phức tạp giữa các tài sản và quy trình làm việc dữ liệu khác nhau, điều này rất quan trọng để duy trì độ tin cậy trong các triển khai quy mô lớn.

Nền tảng này cũng giới thiệu khái niệm “sản phẩm dữ liệu”, cho phép các nhóm nhóm các tài sản dữ liệu liên quan và chỉ định các thỏa thuận cấp dịch vụ (SLA). Cách tiếp cận này giúp thu hẹp khoảng cách giữa các nhóm kỹ thuật và các bên liên quan trong kinh doanh bằng cách cung cấp các số liệu rõ ràng về độ tin cậy và phân phối dữ liệu.

GumGum: Ứng Dụng Thực Tế và Hiệu Quả

GumGum, một công ty tình báo theo ngữ cảnh, đã sớm áp dụng Astro Observe và nhận thấy những lợi ích từ nền tảng này. Brendan Frick, quản lý kỹ thuật cấp cao tại GumGum, cho biết việc thêm khả năng quan sát dữ liệu cùng với điều phối cho phép họ đón đầu các vấn đề trước khi chúng ảnh hưởng đến người dùng và các hệ thống hạ nguồn.

Cạnh Tranh và Tương Lai

Sự mở rộng của Astronomer diễn ra vào thời điểm các doanh nghiệp ngày càng tìm cách hợp nhất các công cụ dữ liệu của họ. Với việc các tổ chức thường xuyên phải xử lý tám hoặc nhiều công cụ hơn từ các nhà cung cấp khác nhau, việc chuyển sang các nền tảng thống nhất có thể báo hiệu một sự thay đổi lớn hơn trong bối cảnh quản lý dữ liệu doanh nghiệp.

Thách thức đối với Astronomer sẽ là cạnh tranh với các đối thủ quan sát đã có tên tuổi đồng thời duy trì vị trí dẫn đầu trong lĩnh vực điều phối. Tuy nhiên, sự tích hợp sâu sắc với Airflow và tập trung vào quản lý chủ động có thể mang lại cho họ lợi thế trong thị trường công cụ cơ sở hạ tầng AI đang phát triển nhanh chóng.

Tầm Quan Trọng của Độ Tin Cậy Dữ Liệu Trong Kỷ Nguyên AI

Trong kỷ nguyên số, dữ liệu được coi là “vàng”, là nguồn tài nguyên vô giá cho các doanh nghiệp. Tuy nhiên, giá trị của dữ liệu chỉ thực sự phát huy khi nó đảm bảo độ tin cậy cao.

  • Quyết định chính xác: Dữ liệu tin cậy giúp doanh nghiệp đưa ra các quyết định sáng suốt, giảm thiểu rủi ro và tối ưu hóa lợi nhuận.
  • Tăng cường hiệu quả: Quy trình làm việc dữ liệu suôn sẻ và đáng tin cậy giúp tiết kiệm thời gian và nguồn lực.
  • Cải thiện trải nghiệm khách hàng: Dữ liệu chính xác về khách hàng giúp cung cấp dịch vụ cá nhân hóa và đáp ứng nhu cầu của họ tốt hơn.
  • Tuân thủ quy định: Đảm bảo tuân thủ các quy định về bảo vệ dữ liệu và quyền riêng tư.

Làm Thế Nào để Nâng Cao Độ Tin Cậy Dữ Liệu?

Để đảm bảo dữ liệu luôn đáng tin cậy, các doanh nghiệp cần thực hiện một loạt các biện pháp, bao gồm:

  1. Xây dựng quy trình thu thập dữ liệu rõ ràng: Đảm bảo nguồn dữ liệu đáng tin cậy và tuân thủ các tiêu chuẩn chất lượng.
  2. Kiểm tra và làm sạch dữ liệu thường xuyên: Loại bỏ dữ liệu trùng lặp, sai sót và không nhất quán.
  3. Sử dụng các công cụ quản lý dữ liệu hiệu quả: Áp dụng các giải pháp công nghệ để giám sát, theo dõi và quản lý dữ liệu.
  4. Đào tạo nhân viên về quản lý dữ liệu: Nâng cao nhận thức và kỹ năng của nhân viên về tầm quan trọng của dữ liệu tin cậy.
  5. Thiết lập các chính sách và quy trình bảo mật dữ liệu: Ngăn chặn truy cập trái phép và bảo vệ dữ liệu khỏi bị mất hoặc đánh cắp.

Kết Luận

Độ tin cậy dữ liệu là yếu tố then chốt để khai thác tối đa tiềm năng của AI. Với sự ra đời của các nền tảng như Astro Observe, các doanh nghiệp giờ đây có thể quản lý và vận hành dữ liệu của họ một cách hiệu quả hơn, đảm bảo rằng các ứng dụng AI của họ được cung cấp dữ liệu chất lượng cao và đáng tin cậy. Trong tương lai, việc tập trung vào độ tin cậy dữ liệu sẽ không chỉ giúp các doanh nghiệp thành công trong lĩnh vực AI mà còn đóng vai trò quan trọng trong việc xây dựng một thế giới số đáng tin cậy hơn.

Việc đầu tư vào các giải pháp quản lý dữ liệu và nâng cao nhận thức về tầm quan trọng của độ tin cậy dữ liệu sẽ là những bước đi quan trọng để các doanh nghiệp đạt được thành công trong kỷ nguyên AI.

Từ Khóa Liên Quan

  • AI (Trí tuệ nhân tạo)
  • Độ tin cậy dữ liệu
  • Quản lý dữ liệu
  • Pipeline dữ liệu
  • Astro Observe
  • Astronomer
  • Apache Airflow
  • Kỹ thuật dữ liệu
  • Chất lượng dữ liệu
  • Phân tích dự đoán

Perplexity Deep Research: Cách mạng nghiên cứu AI giá rẻ

Perplexity Cách Mạng Hóa Nghiên Cứu AI Với Chi Phí Cực Rẻ – Ý Nghĩa Đối Với Ngành

Giới Thiệu về Perplexity và Nghiên Cứu AI Giá Rẻ

Ngày nay, ngành công nghiệp trí tuệ nhân tạo (AI) đang chứng kiến một bước ngoặt lớn với sự xuất hiện của các công cụ nghiên cứu AI với chi phí
hợp lý hơn. Perplexity, một công ty tiên phong trong lĩnh vực này, đã giới thiệu một giải pháp mới mang tên Deep Research, hứa hẹn sẽ thay đổi cách các nhà
nghiên cứu và doanh nghiệp tiếp cận AI. Bài viết này sẽ đi sâu vào tác động của Perplexity đối với ngành công nghiệp AI, đặc biệt là về chi phí và khả năng tiếp cận.

Perplexity AI

Perplexity Deep Research: Công Cụ Thay Đổi Cuộc Chơi

Perplexity Deep Research là một công cụ mạnh mẽ cho phép người dùng tạo ra các báo cáo nghiên cứu toàn diện chỉ trong vài phút. Điều này không
chỉ giúp tiết kiệm thời gian mà còn giảm đáng kể chi phí liên quan đến các dịch vụ nghiên cứu AI truyền thống. Với Deep Research, Perplexity đang dân chủ hóa AI,
khiến nó trở nên dễ tiếp cận hơn với nhiều đối tượng người dùng, từ các nhà nghiên cứu độc lập đến các doanh nghiệp vừa và nhỏ.

Tuyên Bố Của CEO Perplexity

CEO của Perplexity, Aravind Srinivas, đã chia sẻ trên mạng xã hội X (trước đây là Twitter) về tầm nhìn của công ty: “Chúng tôi sẽ tiếp tục làm cho nó nhanh hơn và rẻ
hơn. Kiến thức nên được phổ cập và hữu ích. Không nên bị giữ kín sau các gói đăng ký đắt đỏ chỉ mang lại lợi ích cho các tập đoàn, chứ không phải vì lợi ích của
nhân loại!”. Tuyên bố này thể hiện cam kết của Perplexity trong việc cung cấp các giải pháp AI giá cả phải chăng và dễ tiếp cận cho tất cả mọi người.

Giá Cả Của Perplexity So Với Các Đối Thủ

Một trong những yếu tố quan trọng nhất làm nên sự khác biệt của Perplexity là giá cả. Trong khi các công ty lớn như Anthropic
OpenAI tính phí hàng ngàn đô la mỗi tháng cho các dịch vụ của họ, Perplexity cung cấp năm truy vấn miễn phí mỗi ngày cho tất cả người
dùng. Người dùng trả phí (Pro subscribers) chỉ phải trả 20 đô la mỗi tháng để có 500 truy vấn mỗi ngày và tốc độ xử lý nhanh hơn. Mức giá này có thể buộc các công
ty AI lớn hơn phải giải thích tại sao dịch vụ của họ lại đắt hơn gấp 100 lần.

Tác Động Đến Chi Tiêu AI Của Doanh Nghiệp

Các doanh nghiệp đã và đang tăng cường đầu tư vào AI, với chi tiêu dự kiến tăng 5.7% vào năm 2025, mặc dù ngân sách IT tổng thể chỉ tăng dưới 2%. Một số doanh nghiệp
dự kiến tăng chi tiêu AI thêm 10% trở lên, với mức tăng trung bình là 3.4 triệu đô la dành riêng cho các sáng kiến AI. Tuy nhiên, với việc Perplexity cung cấp các
khả năng tương tự với mức giá phải chăng hơn, các khoản đầu tư này có thể bị đặt dấu hỏi.

Perplexity Deep Research

Perplexity Deep Research thực hiện 8 tìm kiếm và tham khảo 42 nguồn để tạo báo cáo 1.300 từ trong vòng 3 phút. (Nguồn: Perplexity)

Hiệu Suất Vượt Trội Của Perplexity Deep Research

So Sánh Với Google và OpenAI

Không chỉ về giá cả, Perplexity Deep Research còn gây ấn tượng với hiệu suất của nó. Hệ thống này đạt được độ chính xác 93.9% trên benchmark SimpleQA và 20.5% trên
Humanity’s Last Exam, vượt trội hơn Google’s Gemini Thinking và các mô hình hàng đầu khác. Mặc dù OpenAI vẫn dẫn đầu với 26.6% trên
cùng một bài kiểm tra, nhưng dịch vụ của OpenAI lại đắt hơn đáng kể. Khả năng của Perplexity trong việc cung cấp hiệu suất gần như cấp doanh nghiệp với giá tiêu dùng
đặt ra những câu hỏi quan trọng về cấu trúc giá của ngành công nghiệp AI.

Tốc Độ và Khả Năng

“Deep Research trên Perplexity hoàn thành hầu hết các tác vụ trong vòng chưa đầy 3 phút,” công ty tuyên bố, nhấn mạnh khả năng thực hiện hàng chục tìm kiếm và phân tích
hàng trăm nguồn đồng thời. Công cụ này kết hợp tìm kiếm trên web, khả năng viết code và các chức năng lý luận để tinh chỉnh nghiên cứu một cách lặp đi lặp lại, mô phỏng
các nhà nghiên cứu chuyên gia nhưng với tốc độ máy móc.

SimpleQA Benchmark

Perplexity Deep Research đạt điểm chính xác 93.9% trên benchmark SimpleQA. (Nguồn: Perplexity)

Phá Vỡ Rào Cản Tiếp Cận Công Nghệ Tiên Tiến

Tạo Ra Sự Bình Đẳng Trong Tiếp Cận AI

AI doanh nghiệp đã tạo ra một khoảng cách kỹ thuật số giữa các công ty có nguồn vốn dồi dào và những công ty khác. Các doanh nghiệp nhỏ,
nhà nghiên cứu và chuyên gia không đủ khả năng chi trả các gói đăng ký hàng ngàn đô la đã bị loại khỏi các khả năng AI tiên tiến. Perplexity thay đổi điều này, xử lý
các tác vụ phức tạp từ phân tích tài chính và nghiên cứu thị trường đến tài liệu kỹ thuật và thông tin chi tiết về chăm sóc sức khỏe.

Thay Thế Các Công Cụ Nghiên Cứu Đắt Đỏ

Người dùng có thể xuất các phát hiện dưới dạng PDF hoặc chia sẻ chúng thông qua nền tảng của Perplexity, có khả năng thay thế các gói đăng ký nghiên cứu đắt đỏ và các
công cụ chuyên dụng. Điều này mang lại lợi ích to lớn cho những người dùng có ngân sách hạn chế nhưng vẫn cần tiếp cận các công cụ nghiên cứu AI mạnh mẽ.

Mở Rộng Nền Tảng và Tăng Cường Tiếp Cận

Công ty có kế hoạch mở rộng Deep Research sang các nền tảng iOS, AndroidMac,
điều này có thể thúc đẩy việc áp dụng rộng rãi hơn giữa những người dùng trước đây coi các công cụ AI là ngoài tầm với. Khả năng tiếp cận rộng rãi này có thể chứng minh
giá trị hơn bất kỳ đột phá kỹ thuật nào — cuối cùng đặt các khả năng AI tiên tiến vào tay những người dùng cần chúng nhất.

Mở Rộng Nền Tảng Perplexity

Lời Khuyên Cho Các Nhà Lãnh Đạo Kỹ Thuật

Đánh Giá Lại Chi Tiêu AI

Đối với các nhà lãnh đạo kỹ thuật, sự thay đổi này đòi hỏi sự chú ý. Các công ty trả giá cao cho các dịch vụ AI nên xem xét liệu những khoản đầu tư đó có mang lại giá
trị vượt xa những gì Perplexity hiện cung cấp với một phần nhỏ chi phí hay không. Câu trả lời có thể định hình lại cách các tổ chức tiếp cận chi tiêu AI trong năm 2025
và hơn thế nữa.

Sự Lựa Chọn Của Người Dùng

Trong khi các đối thủ cạnh tranh của Perplexity đang cố gắng biện minh cho mức giá cao cấp của họ, hàng ngàn người dùng đã và đang thử nghiệm các khả năng của Deep
Research. Phán quyết của họ có thể quan trọng hơn bất kỳ benchmark nào: Trong thực tế mới của AI, công nghệ tốt nhất không phải là công nghệ đắt nhất — mà là công nghệ
mà mọi người thực sự có thể sử dụng.

Kết Luận: Tương Lai Của Nghiên Cứu AI Giá Rẻ

Perplexity đã thực sự tạo ra một cuộc cách mạng trong lĩnh vực nghiên cứu AI bằng cách cung cấp một giải pháp mạnh mẽ, hiệu quả và giá cả
phải chăng. Sự xuất hiện của Deep Research không chỉ giúp các nhà nghiên cứu và doanh nghiệp tiết kiệm chi phí mà còn mở ra cơ hội tiếp
cận AI cho nhiều đối tượng người dùng hơn. Trong tương lai, chúng ta có thể kỳ vọng sẽ thấy nhiều công ty khác theo đuổi mô hình này, dẫn đến một thị trường AI cạnh tranh
hơn và có lợi hơn cho người tiêu dùng.

Tương Lai Nghiên Cứu AI

Tóm Tắt Các Điểm Chính

  • Perplexity Deep Research cung cấp báo cáo nghiên cứu toàn diện với chi phí thấp hơn đáng kể so với các đối thủ.
  • Công cụ này đạt hiệu suất cao trên các benchmark quan trọng, cạnh tranh với các mô hình AI hàng đầu.
  • Perplexity đang dân chủ hóa AI, giúp nó dễ tiếp cận hơn với các doanh nghiệp nhỏ, nhà nghiên cứu độc lập và người dùng cá nhân.
  • Các công ty nên đánh giá lại chi tiêu AI của họ và xem xét liệu các giải pháp đắt đỏ có thực sự mang lại giá trị tương xứng hay không.
  • Sự thành công của Perplexity có thể báo hiệu một sự thay đổi lớn trong cách ngành công nghiệp AI định giá và cung cấp dịch vụ của mình.

Từ Khóa Liên Quan

Nghiên cứu AI, Perplexity, Deep Research, Giá AI, OpenAI, Anthropic, AI doanh nghiệp, Ngân sách AI, Chi phí AI, Công nghệ AI, Đánh giá AI,
So sánh AI, Phần mềm AI, Công cụ AI, Phân tích AI, Nghiên cứu thị trường, Phân tích tài chính, Tự động hóa nghiên cứu, Trí tuệ nhân tạo, Học máy, Big data.

FAQ (Câu Hỏi Thường Gặp)

Perplexity Deep Research là gì?

Perplexity Deep Research là một công cụ tạo báo cáo nghiên cứu toàn diện sử dụng AI để thu thập và phân tích thông tin từ nhiều nguồn khác nhau, giúp người dùng tiết kiệm
thời gian và chi phí.

Perplexity Deep Research khác biệt như thế nào so với các công cụ AI khác?

Perplexity Deep Research nổi bật với giá cả phải chăng, hiệu suất cao và khả năng tiếp cận dễ dàng, giúp nó trở thành một lựa chọn hấp dẫn cho nhiều đối tượng người dùng.

Tôi có thể sử dụng Perplexity Deep Research cho mục đích gì?

Bạn có thể sử dụng Perplexity Deep Research cho nhiều mục đích khác nhau, bao gồm nghiên cứu thị trường, phân tích tài chính, tạo tài liệu kỹ thuật và thu thập thông tin
chi tiết về chăm sóc sức khỏe.

Perplexity Deep Research có sẵn trên nền tảng nào?

Hiện tại, Perplexity Deep Research có sẵn trên web và dự kiến sẽ sớm có mặt trên các nền tảng iOS, Android và Mac.

Làm thế nào để bắt đầu sử dụng Perplexity Deep Research?

Bạn có thể truy cập trang web của Perplexity và đăng ký tài khoản để bắt đầu sử dụng Deep Research. Bạn có thể sử dụng miễn phí 5 truy vấn mỗi ngày hoặc đăng ký gói Pro để
có nhiều truy vấn hơn và tốc độ xử lý nhanh hơn.

DeepHermes-3: Mô hình AI cá nhân hóa, suy luận linh hoạt từ Nous Research

DeepHermes-3: Mô Hình AI “Cá Nhân Hóa, Không Giới Hạn” Mới Nhất Từ Nous Research

Ngày 14 tháng 2 năm 2025

Anime girl with black bob tries on headset against backdrop of angel wings

Tín dụng: VentureBeat tạo bằng Midjourney

Các mô hình suy luận AI – những mô hình tạo ra “chuỗi suy nghĩ” (CoT) trong văn bản và phản ánh phân tích của chính chúng để cố gắng bắt lỗi giữa chừng trước khi đưa ra phản hồi – đang trở nên rất phổ biến hiện nay nhờ DeepSeek“o” series của OpenAI.

Vẫn còn khá đáng kinh ngạc đối với tôi về tốc độ mà phương pháp mô hình suy luận đã lan rộng khắp ngành công nghiệp AI, với thông báo trong tuần này rằng có một mô hình mới khác để thử, mô hình này đến từ tập thể kỹ sư Nous Research bí ẩn nhưng đáng khen ngợi, có nhiệm vụ duy nhất kể từ khi ra mắt tại Thành phố New York vào năm 2023 là tạo ra các mô hình AI “cá nhân hóa, không giới hạn” – thường bằng cách lấy và tinh chỉnh hoặc đào tạo lại các mô hình mã nguồn mở như Meta’s Llama series và những mô hình từ startup Pháp Mistral.


Như đã đăng trên tài khoản Nous Research trên X và trong kênh Discord của công ty, mô hình suy luận mở mới này có tên là “DeepHermes-3 Preview” và được mô tả là một “LLM [mô hình ngôn ngữ lớn] thống nhất khả năng suy luận và mô hình ngôn ngữ trực quan”, và cho phép người dùng chuyển đổi tùy ý giữa các quy trình suy luận dài hơn và các phản hồi ngắn hơn, nhanh hơn, ít đòi hỏi tính toán hơn.

Screenshot Nous Research

Ảnh chụp màn hình tài khoản X của Nous Research

Đây là một biến thể 8 tỷ tham số (số lượng cài đặt) của Hermes 3, bản thân nó là một biến thể của Meta’s Llama do Nous phát hành vào tháng 8 năm 2024. Các trao đổi mẫu đã cho thấy rằng nó có thể tham gia vào các màn hình hiển thị siêu nhận thức về việc suy nghĩ về bản thân và vai trò của AI so với ý thức của con người, gây ra một điều gì đó gần giống như một cuộc khủng hoảng hiện sinh trong các đầu ra của mô hình.

Người dùng có thể tải xuống toàn bộ mã mô hình trên HuggingFace và một phiên bản đã được lượng tử hóa (giảm số bit) và lưu trong định dạng thống nhất do GPT tạo ra (GGUF), được thiết kế để chạy các suy luận mô hình (bản dựng sản xuất thực tế, trái ngược với đào tạo) trên PC và máy chủ cấp tiêu dùng.

Hugging Face DeepHermes-3

DeepHermes-3 trên Hugging Face

Nous hôm nay đã viết rằng các nhà nghiên cứu của họ “hy vọng phương pháp độc đáo của chúng tôi đối với chế độ suy luận có thể chuyển đổi, do người dùng kiểm soát sẽ thúc đẩy sứ mệnh của chúng tôi là cung cấp cho những người sử dụng DeepHermes nhiều khả năng điều khiển hơn cho bất kỳ nhu cầu nào họ có.”

Xây Dựng Trên Hermes 3: Phương Pháp Tiếp Cận Dữ Liệu Và Đào Tạo

DeepHermes-3 được xây dựng dựa trên Hermes 3, một bộ dữ liệu đa miền được tuyển chọn tỉ mỉ mà Nous Research đã phát triển cho loạt Hermes 3 rộng lớn hơn. Hermes 3 là nền tảng quan trọng cho sự phát triển của DeepHermes-3.

Theo Báo cáo Kỹ thuật Hermes 3 được phát hành vào tháng 8, bộ dữ liệu này bao gồm khoảng 390 triệu token trải rộng trên các miền hướng dẫn và suy luận đa dạng.

Bộ dữ liệu được chia thành các danh mục chính sau:

  • Hướng dẫn chung (60.6%): Các lời nhắc rộng, mở tương tự như những lời nhắc được tìm thấy trong các mô hình trò chuyện AI đa năng.
  • Dữ liệu chuyên gia về miền (12.8%): Kiến thức chuyên môn trong các lĩnh vực như khoa học, luật và kỹ thuật.
  • Toán học (6.7%): Các bộ dữ liệu giải quyết vấn đề nâng cao nhằm cải thiện khả năng suy luận số và logic.
  • Nhập vai và viết sáng tạo (6.1%): Dữ liệu được thiết kế để tăng cường khả năng kể chuyện và đối thoại mô phỏng.
  • Mã hóa và phát triển phần mềm (4.5%): Tạo mã và gỡ lỗi các tác vụ.
  • Sử dụng công cụ, suy luận tác nhân và tạo tăng cường truy xuất (RAG) (4.3%): Đào tạo về gọi hàm, lập kế hoạch và truy xuất kiến thức.
  • Tạo nội dung (3.0%): Viết, tóm tắt và các tác vụ đầu ra có cấu trúc.
  • Điều khiển và căn chỉnh (2.5%): Dữ liệu tập trung vào việc làm cho mô hình có khả năng điều khiển cao và đáp ứng các lời nhắc của người dùng.

Ngoài ra, thành viên nhóm nghiên cứu Nous Research ẩn danh @Teknium (@Teknium1 trên X) đã viết trong phản hồi cho người dùng máy chủ Discord của công ty rằng mô hình này được đào tạo trên “1M non cots và 150K cots,” hoặc 1 triệu đầu ra không CoT và 150,000 đầu ra CoT.

Sự kết hợp dữ liệu này hỗ trợ khả năng độc đáo của DeepHermes-3 trong việc chuyển đổi giữa các phản hồi trực quan và suy luận có cấu trúc sâu sắc, một tính năng quan trọng giúp phân biệt nó với các LLM khác. Sự kết hợp dữ liệu đa dạng này là chìa khóa cho khả năng linh hoạt của DeepHermes-3.

Cách Chế Độ Suy Luận Có Thể Chuyển Đổi Hoạt Động

DeepHermes-3 cho phép người dùng kiểm soát độ sâu suy luận của nó bằng cách sử dụng một lời nhắc hệ thống. Người dùng phải nhập văn bản sau trước một lời nhắc để “bật” chế độ suy luận của mô hình:

Bạn là một AI suy nghĩ sâu sắc, bạn có thể sử dụng các chuỗi suy nghĩ cực kỳ dài để xem xét sâu sắc vấn đề và cân nhắc với chính mình thông qua các quy trình suy luận có hệ thống để giúp đưa ra giải pháp chính xác trước khi trả lời. Bạn nên bao gồm những suy nghĩ và độc thoại nội tâm của mình bên trong các thẻ <think></think>, và sau đó cung cấp giải pháp hoặc phản hồi của bạn cho vấn đề.

Khi chế độ suy luận được bật, mô hình xử lý thông tin trong CoT dài, cho phép nó cân nhắc một cách có hệ thống trước khi tạo ra câu trả lời. Chế độ suy luận giúp mô hình đưa ra các quyết định chính xác hơn.

Điều này đạt được bằng cách sử dụng các thẻ <think></think>, nơi độc thoại nội tâm của mô hình được cấu trúc trước khi trình bày một giải pháp cuối cùng.

Ở chế độ phản hồi tiêu chuẩn, mô hình hoạt động giống như một chatbot AI truyền thống hơn, cung cấp các phản hồi dựa trên trực giác nhanh hơn mà không cần xử lý logic sâu sắc.

Thông Tin Chi Tiết Về Hiệu Suất Và Phản Hồi Từ Cộng Đồng

Việc đánh giá chuẩn sớm và thử nghiệm cộng đồng đã cung cấp những thông tin chi tiết quan trọng về khả năng của DeepHermes-3:

  • Suy luận toán học: DeepHermes-3 đạt 67% trên các chuẩn MATH, so với 89.1% cho mô hình R1-distilled của DeepSeek. Mặc dù DeepSeek vượt trội hơn nó trong các tác vụ toán học thuần túy, Nous Research định vị DeepHermes-3 là một mô hình tổng quát hơn với các kỹ năng trò chuyện và suy luận rộng hơn.
  • Cuộc trò chuyện nhiều lượt: Một số người thử nghiệm báo cáo rằng chế độ suy luận kích hoạt chính xác trên phản hồi đầu tiên, nhưng có thể không duy trì trong các cuộc trò chuyện mở rộng. Các thành viên cộng đồng đề xuất thực thi <think>\n ở đầu mỗi phản hồi, một phương pháp cũng được sử dụng trong DeepSeek-R1.
  • Gọi hàm: DeepHermes-3 hỗ trợ sử dụng công cụ, mặc dù nó không được đào tạo rõ ràng để tích hợp chế độ suy luận và gọi hàm đồng thời. Một số người dùng báo cáo rằng mặc dù kết hợp cả hai tính năng giúp cải thiện độ chính xác trong việc thực hiện các công cụ, nhưng kết quả vẫn không nhất quán.

Nous Research đang tích cực thu thập phản hồi của người dùng để tinh chỉnh tính bền bỉ của suy luận và cải thiện các tương tác nhiều lượt. Phản hồi từ cộng đồng là yếu tố quan trọng để cải thiện DeepHermes-3.

Triển Khai Và Hiệu Suất Phần Cứng

Macbook Pro M4 Max

DeepHermes-3 thử nghiệm trên Macbook Pro M4 Max

DeepHermes-3 có sẵn để thử nghiệm trên Hugging Face, với các phiên bản lượng tử hóa GGUF được tối ưu hóa cho phần cứng công suất thấp. Mô hình này tương thích với vLLM để suy luận và sử dụng định dạng Llama-Chat cho đối thoại nhiều lượt.

Một người dùng đã báo cáo tốc độ xử lý là 28.98 token mỗi giây trên MacBook Pro M4 Max, chứng minh rằng mô hình có thể chạy hiệu quả trên phần cứng tiêu dùng.

DeepHermes-3 dựa trên mô hình Llama 3 của Meta và được điều chỉnh bởi Giấy phép Cộng đồng Meta Llama 3. Mặc dù mô hình này có sẵn miễn phí để sử dụng, sửa đổi và phân phối lại, nhưng một số điều kiện được áp dụng:

  • Phân phối lại: Bất kỳ mô hình hoặc triển khai phái sinh nào phải bao gồm giấy phép gốc và hiển thị nổi bật “Được xây dựng với Meta Llama 3.”
  • Hạn chế đối với đào tạo mô hình: Người dùng không thể sử dụng DeepHermes-3 (hoặc Llama 3) để đào tạo các LLM khác, ngoại trừ các tác phẩm phái sinh dựa trên Llama 3 một cách rõ ràng.
  • Cấp phép thương mại cho các công ty lớn: Các tổ chức có hơn 700 triệu người dùng hoạt động hàng tháng phải được Meta phê duyệt rõ ràng trước khi sử dụng mô hình này cho mục đích thương mại.
  • Chính sách sử dụng được chấp nhận: Người dùng phải tuân thủ các hạn chế sử dụng AI của Meta, cấm các ứng dụng trong các lĩnh vực như thông tin sai lệch, giám sát và tạo nội dung có hại.

Những quy tắc phân phối lại và giới hạn thương mại này có nghĩa là DeepHermes-3 không hoàn toàn là mã nguồn mở theo nghĩa truyền thống, mặc dù nó có sẵn trên Hugging Face, không giống như mô hình suy luận R1 đình đám của đối thủ Trung Quốc DeepSeek, mô hình này có sẵn theo Giấy phép MIT cho phép.

Hướng Tới Hermes 4

DeepHermes-3 được phát triển bởi @teknium, @emozilla, @Gifted Gummy Bee, @hjc-puro và @jsupha, với Nous Research ghi nhận cộng đồng mã nguồn mở đã đóng góp vào các bộ dữ liệu, công cụ đánh giá và đào tạo mô hình.

Nous Research coi mô hình xem trước này là một bước đệm hướng tới bản phát hành lớn tiếp theo, Hermes 4, dự kiến sẽ tinh chỉnh hơn nữa khả năng suy luận và đàm thoại của nó. Hermes 4 hứa hẹn sẽ mang lại nhiều cải tiến đáng kể.

Tầm Quan Trọng Của DeepHermes-3 Trong Bối Cảnh AI Hiện Nay

Trong bối cảnh mà các mô hình AI ngày càng trở nên phức tạp và chuyên biệt, DeepHermes-3 nổi bật như một giải pháp linh hoạtdễ tiếp cận. Khả năng chuyển đổi giữa chế độ suy luận sâu và phản hồi nhanh chóng giúp mô hình này phù hợp với nhiều ứng dụng khác nhau, từ giải quyết các vấn đề phức tạp đến tương tác tự nhiên với người dùng.

Lợi Ích Của Việc Sử Dụng DeepHermes-3

Việc sử dụng DeepHermes-3 mang lại nhiều lợi ích đáng kể:

  • Cá Nhân Hóa Trải Nghiệm : Mô hình cho phép người dùng tùy chỉnh cách thức AI phản hồi, tạo ra trải nghiệm phù hợp với nhu cầu cá nhân.
  • Tăng Cường Khả Năng Suy Luận : Chế độ suy luận sâu giúp mô hình đưa ra các quyết định chính xác hơn và giải quyết các vấn đề phức tạp một cách hiệu quả.
  • Tiết Kiệm Chi Phí : Phiên bản lượng tử hóa GGUF giúp mô hình chạy hiệu quả trên phần cứng tiêu dùng, giảm chi phí đầu tư cho doanh nghiệp và cá nhân.
  • Dễ Dàng Tiếp Cận : Mô hình có sẵn trên Hugging Face, giúp các nhà phát triển dễ dàng tiếp cận và tích hợp vào các ứng dụng của mình.

Các Ứng Dụng Tiềm Năng Của DeepHermes-3

DeepHermes-3 có tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực:

  • Giáo Dục : Hỗ trợ học sinh và sinh viên trong việc giải quyết các bài toán phức tạp và tìm hiểu kiến thức mới.
  • Chăm Sóc Sức Khỏe : Cung cấp thông tin y tế chính xác và hỗ trợ bác sĩ trong việc chẩn đoán bệnh.
  • Dịch Vụ Khách Hàng : Tự động hóa các tác vụ hỗ trợ khách hàng và cung cấp trải nghiệm cá nhân hóa.
  • Nghiên Cứu Khoa Học : Hỗ trợ các nhà khoa học trong việc phân tích dữ liệu và đưa ra các giả thuyết mới.

So Sánh DeepHermes-3 Với Các Mô Hình AI Khác

So với các mô hình AI khác, DeepHermes-3 có những ưu điểm nổi bật sau:

  • Khả Năng Suy Luận Linh Hoạt : Mô hình có thể chuyển đổi giữa chế độ suy luận sâu và phản hồi nhanh chóng, giúp nó phù hợp với nhiều tình huống khác nhau.
  • Tính Cá Nhân Hóa Cao : Người dùng có thể tùy chỉnh cách thức AI phản hồi, tạo ra trải nghiệm phù hợp với nhu cầu cá nhân.
  • Dễ Dàng Triển Khai : Mô hình có thể chạy hiệu quả trên phần cứng tiêu dùng, giúp các doanh nghiệp và cá nhân dễ dàng triển khai.
  • Mã Nguồn Mở : Mô hình có sẵn trên Hugging Face, giúp các nhà phát triển dễ dàng tiếp cận và tích hợp vào các ứng dụng của mình.

Những Thách Thức Và Cơ Hội Trong Tương Lai

Mặc dù DeepHermes-3 mang lại nhiều tiềm năng, vẫn còn những thách thức cần vượt qua:

  • Duy Trì Tính Ổn Định Của Suy Luận : Đảm bảo rằng chế độ suy luận sâu hoạt động ổn định trong các cuộc trò chuyện dài và phức tạp.
  • Tích Hợp Với Các Công Cụ Khác : Cải thiện khả năng tích hợp với các công cụ khác như gọi hàm và truy xuất thông tin.
  • Đảm Bảo Tính An Toàn Và Đạo Đức : Ngăn chặn mô hình tạo ra nội dung có hại hoặc thông tin sai lệch.

Tuy nhiên, những thách thức này cũng tạo ra những cơ hội lớn cho sự phát triển của DeepHermes-3:

  • Cải Thiện Khả Năng Suy Luận : Tiếp tục nghiên cứu và phát triển các thuật toán suy luận mới để tăng cường khả năng của mô hình.
  • Mở Rộng Ứng Dụng : Khám phá các ứng dụng mới trong các lĩnh vực như giáo dục, chăm sóc sức khỏe và dịch vụ khách hàng.
  • Xây Dựng Cộng Đồng : Tạo ra một cộng đồng mạnh mẽ gồm các nhà phát triển, nhà nghiên cứu và người dùng để cùng nhau phát triển mô hình.

Kết Luận

DeepHermes-3 là một mô hình AI đầy hứa hẹn với khả năng suy luận linh hoạt và tính cá nhân hóa cao. Mô hình này có tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực và có thể đóng góp quan trọng vào sự phát triển của trí tuệ nhân tạo. Mặc dù vẫn còn những thách thức cần vượt qua, DeepHermes-3 đang mở ra một kỷ nguyên mới của AI, nơi mà các mô hình có thể tương tác với con người một cách tự nhiên và hiệu quả hơn.

DeepHermes-3: Mô hình AI cá nhân hóa, suy luận linh hoạt từ Nous Research

DeepHermes-3: Mô Hình AI “Cá Nhân Hóa, Không Giới Hạn” Mới Nhất Từ Nous Research

Ngày 14 tháng 2 năm 2025

Anime girl with black bob tries on headset against backdrop of angel wings

Tín dụng: VentureBeat tạo bằng Midjourney

Các mô hình suy luận AI – những mô hình tạo ra “chuỗi suy nghĩ” (CoT) trong văn bản và phản ánh phân tích của chính chúng để cố gắng bắt lỗi giữa chừng trước khi đưa ra phản hồi – đang trở nên rất phổ biến hiện nay nhờ DeepSeek“o” series của OpenAI.

Vẫn còn khá đáng kinh ngạc đối với tôi về tốc độ mà phương pháp mô hình suy luận đã lan rộng khắp ngành công nghiệp AI, với thông báo trong tuần này rằng có một mô hình mới khác để thử, mô hình này đến từ tập thể kỹ sư Nous Research bí ẩn nhưng đáng khen ngợi, có nhiệm vụ duy nhất kể từ khi ra mắt tại Thành phố New York vào năm 2023 là tạo ra các mô hình AI “cá nhân hóa, không giới hạn” – thường bằng cách lấy và tinh chỉnh hoặc đào tạo lại các mô hình mã nguồn mở như Meta’s Llama series và những mô hình từ startup Pháp Mistral.


Như đã đăng trên tài khoản Nous Research trên X và trong kênh Discord của công ty, mô hình suy luận mở mới này có tên là “DeepHermes-3 Preview” và được mô tả là một “LLM [mô hình ngôn ngữ lớn] thống nhất khả năng suy luận và mô hình ngôn ngữ trực quan”, và cho phép người dùng chuyển đổi tùy ý giữa các quy trình suy luận dài hơn và các phản hồi ngắn hơn, nhanh hơn, ít đòi hỏi tính toán hơn.

Screenshot Nous Research

Ảnh chụp màn hình tài khoản X của Nous Research

Đây là một biến thể 8 tỷ tham số (số lượng cài đặt) của Hermes 3, bản thân nó là một biến thể của Meta’s Llama do Nous phát hành vào tháng 8 năm 2024. Các trao đổi mẫu đã cho thấy rằng nó có thể tham gia vào các màn hình hiển thị siêu nhận thức về việc suy nghĩ về bản thân và vai trò của AI so với ý thức của con người, gây ra một điều gì đó gần giống như một cuộc khủng hoảng hiện sinh trong các đầu ra của mô hình.

Người dùng có thể tải xuống toàn bộ mã mô hình trên HuggingFace và một phiên bản đã được lượng tử hóa (giảm số bit) và lưu trong định dạng thống nhất do GPT tạo ra (GGUF), được thiết kế để chạy các suy luận mô hình (bản dựng sản xuất thực tế, trái ngược với đào tạo) trên PC và máy chủ cấp tiêu dùng.

Hugging Face DeepHermes-3

DeepHermes-3 trên Hugging Face

Nous hôm nay đã viết rằng các nhà nghiên cứu của họ “hy vọng phương pháp độc đáo của chúng tôi đối với chế độ suy luận có thể chuyển đổi, do người dùng kiểm soát sẽ thúc đẩy sứ mệnh của chúng tôi là cung cấp cho những người sử dụng DeepHermes nhiều khả năng điều khiển hơn cho bất kỳ nhu cầu nào họ có.”

Xây Dựng Trên Hermes 3: Phương Pháp Tiếp Cận Dữ Liệu Và Đào Tạo

DeepHermes-3 được xây dựng dựa trên Hermes 3, một bộ dữ liệu đa miền được tuyển chọn tỉ mỉ mà Nous Research đã phát triển cho loạt Hermes 3 rộng lớn hơn. Hermes 3 là nền tảng quan trọng cho sự phát triển của DeepHermes-3.

Theo Báo cáo Kỹ thuật Hermes 3 được phát hành vào tháng 8, bộ dữ liệu này bao gồm khoảng 390 triệu token trải rộng trên các miền hướng dẫn và suy luận đa dạng.

Bộ dữ liệu được chia thành các danh mục chính sau:

  • Hướng dẫn chung (60.6%): Các lời nhắc rộng, mở tương tự như những lời nhắc được tìm thấy trong các mô hình trò chuyện AI đa năng.
  • Dữ liệu chuyên gia về miền (12.8%): Kiến thức chuyên môn trong các lĩnh vực như khoa học, luật và kỹ thuật.
  • Toán học (6.7%): Các bộ dữ liệu giải quyết vấn đề nâng cao nhằm cải thiện khả năng suy luận số và logic.
  • Nhập vai và viết sáng tạo (6.1%): Dữ liệu được thiết kế để tăng cường khả năng kể chuyện và đối thoại mô phỏng.
  • Mã hóa và phát triển phần mềm (4.5%): Tạo mã và gỡ lỗi các tác vụ.
  • Sử dụng công cụ, suy luận tác nhân và tạo tăng cường truy xuất (RAG) (4.3%): Đào tạo về gọi hàm, lập kế hoạch và truy xuất kiến thức.
  • Tạo nội dung (3.0%): Viết, tóm tắt và các tác vụ đầu ra có cấu trúc.
  • Điều khiển và căn chỉnh (2.5%): Dữ liệu tập trung vào việc làm cho mô hình có khả năng điều khiển cao và đáp ứng các lời nhắc của người dùng.

Ngoài ra, thành viên nhóm nghiên cứu Nous Research ẩn danh @Teknium (@Teknium1 trên X) đã viết trong phản hồi cho người dùng máy chủ Discord của công ty rằng mô hình này được đào tạo trên “1M non cots và 150K cots,” hoặc 1 triệu đầu ra không CoT và 150,000 đầu ra CoT.

Sự kết hợp dữ liệu này hỗ trợ khả năng độc đáo của DeepHermes-3 trong việc chuyển đổi giữa các phản hồi trực quan và suy luận có cấu trúc sâu sắc, một tính năng quan trọng giúp phân biệt nó với các LLM khác. Sự kết hợp dữ liệu đa dạng này là chìa khóa cho khả năng linh hoạt của DeepHermes-3.

Cách Chế Độ Suy Luận Có Thể Chuyển Đổi Hoạt Động

DeepHermes-3 cho phép người dùng kiểm soát độ sâu suy luận của nó bằng cách sử dụng một lời nhắc hệ thống. Người dùng phải nhập văn bản sau trước một lời nhắc để “bật” chế độ suy luận của mô hình:

Bạn là một AI suy nghĩ sâu sắc, bạn có thể sử dụng các chuỗi suy nghĩ cực kỳ dài để xem xét sâu sắc vấn đề và cân nhắc với chính mình thông qua các quy trình suy luận có hệ thống để giúp đưa ra giải pháp chính xác trước khi trả lời. Bạn nên bao gồm những suy nghĩ và độc thoại nội tâm của mình bên trong các thẻ <think></think>, và sau đó cung cấp giải pháp hoặc phản hồi của bạn cho vấn đề.

Khi chế độ suy luận được bật, mô hình xử lý thông tin trong CoT dài, cho phép nó cân nhắc một cách có hệ thống trước khi tạo ra câu trả lời. Chế độ suy luận giúp mô hình đưa ra các quyết định chính xác hơn.

Điều này đạt được bằng cách sử dụng các thẻ <think></think>, nơi độc thoại nội tâm của mô hình được cấu trúc trước khi trình bày một giải pháp cuối cùng.

Ở chế độ phản hồi tiêu chuẩn, mô hình hoạt động giống như một chatbot AI truyền thống hơn, cung cấp các phản hồi dựa trên trực giác nhanh hơn mà không cần xử lý logic sâu sắc.

Thông Tin Chi Tiết Về Hiệu Suất Và Phản Hồi Từ Cộng Đồng

Việc đánh giá chuẩn sớm và thử nghiệm cộng đồng đã cung cấp những thông tin chi tiết quan trọng về khả năng của DeepHermes-3:

  • Suy luận toán học: DeepHermes-3 đạt 67% trên các chuẩn MATH, so với 89.1% cho mô hình R1-distilled của DeepSeek. Mặc dù DeepSeek vượt trội hơn nó trong các tác vụ toán học thuần túy, Nous Research định vị DeepHermes-3 là một mô hình tổng quát hơn với các kỹ năng trò chuyện và suy luận rộng hơn.
  • Cuộc trò chuyện nhiều lượt: Một số người thử nghiệm báo cáo rằng chế độ suy luận kích hoạt chính xác trên phản hồi đầu tiên, nhưng có thể không duy trì trong các cuộc trò chuyện mở rộng. Các thành viên cộng đồng đề xuất thực thi <think>\n ở đầu mỗi phản hồi, một phương pháp cũng được sử dụng trong DeepSeek-R1.
  • Gọi hàm: DeepHermes-3 hỗ trợ sử dụng công cụ, mặc dù nó không được đào tạo rõ ràng để tích hợp chế độ suy luận và gọi hàm đồng thời. Một số người dùng báo cáo rằng mặc dù kết hợp cả hai tính năng giúp cải thiện độ chính xác trong việc thực hiện các công cụ, nhưng kết quả vẫn không nhất quán.

Nous Research đang tích cực thu thập phản hồi của người dùng để tinh chỉnh tính bền bỉ của suy luận và cải thiện các tương tác nhiều lượt. Phản hồi từ cộng đồng là yếu tố quan trọng để cải thiện DeepHermes-3.

Triển Khai Và Hiệu Suất Phần Cứng

Macbook Pro M4 Max

DeepHermes-3 thử nghiệm trên Macbook Pro M4 Max

DeepHermes-3 có sẵn để thử nghiệm trên Hugging Face, với các phiên bản lượng tử hóa GGUF được tối ưu hóa cho phần cứng công suất thấp. Mô hình này tương thích với vLLM để suy luận và sử dụng định dạng Llama-Chat cho đối thoại nhiều lượt.

Một người dùng đã báo cáo tốc độ xử lý là 28.98 token mỗi giây trên MacBook Pro M4 Max, chứng minh rằng mô hình có thể chạy hiệu quả trên phần cứng tiêu dùng.

DeepHermes-3 dựa trên mô hình Llama 3 của Meta và được điều chỉnh bởi Giấy phép Cộng đồng Meta Llama 3. Mặc dù mô hình này có sẵn miễn phí để sử dụng, sửa đổi và phân phối lại, nhưng một số điều kiện được áp dụng:

  • Phân phối lại: Bất kỳ mô hình hoặc triển khai phái sinh nào phải bao gồm giấy phép gốc và hiển thị nổi bật “Được xây dựng với Meta Llama 3.”
  • Hạn chế đối với đào tạo mô hình: Người dùng không thể sử dụng DeepHermes-3 (hoặc Llama 3) để đào tạo các LLM khác, ngoại trừ các tác phẩm phái sinh dựa trên Llama 3 một cách rõ ràng.
  • Cấp phép thương mại cho các công ty lớn: Các tổ chức có hơn 700 triệu người dùng hoạt động hàng tháng phải được Meta phê duyệt rõ ràng trước khi sử dụng mô hình này cho mục đích thương mại.
  • Chính sách sử dụng được chấp nhận: Người dùng phải tuân thủ các hạn chế sử dụng AI của Meta, cấm các ứng dụng trong các lĩnh vực như thông tin sai lệch, giám sát và tạo nội dung có hại.

Những quy tắc phân phối lại và giới hạn thương mại này có nghĩa là DeepHermes-3 không hoàn toàn là mã nguồn mở theo nghĩa truyền thống, mặc dù nó có sẵn trên Hugging Face, không giống như mô hình suy luận R1 đình đám của đối thủ Trung Quốc DeepSeek, mô hình này có sẵn theo Giấy phép MIT cho phép.

Hướng Tới Hermes 4

DeepHermes-3 được phát triển bởi @teknium, @emozilla, @Gifted Gummy Bee, @hjc-puro và @jsupha, với Nous Research ghi nhận cộng đồng mã nguồn mở đã đóng góp vào các bộ dữ liệu, công cụ đánh giá và đào tạo mô hình.

Nous Research coi mô hình xem trước này là một bước đệm hướng tới bản phát hành lớn tiếp theo, Hermes 4, dự kiến sẽ tinh chỉnh hơn nữa khả năng suy luận và đàm thoại của nó. Hermes 4 hứa hẹn sẽ mang lại nhiều cải tiến đáng kể.

Tầm Quan Trọng Của DeepHermes-3 Trong Bối Cảnh AI Hiện Nay

Trong bối cảnh mà các mô hình AI ngày càng trở nên phức tạp và chuyên biệt, DeepHermes-3 nổi bật như một giải pháp linh hoạtdễ tiếp cận. Khả năng chuyển đổi giữa chế độ suy luận sâu và phản hồi nhanh chóng giúp mô hình này phù hợp với nhiều ứng dụng khác nhau, từ giải quyết các vấn đề phức tạp đến tương tác tự nhiên với người dùng.

Lợi Ích Của Việc Sử Dụng DeepHermes-3

Việc sử dụng DeepHermes-3 mang lại nhiều lợi ích đáng kể:

  • Cá Nhân Hóa Trải Nghiệm : Mô hình cho phép người dùng tùy chỉnh cách thức AI phản hồi, tạo ra trải nghiệm phù hợp với nhu cầu cá nhân.
  • Tăng Cường Khả Năng Suy Luận : Chế độ suy luận sâu giúp mô hình đưa ra các quyết định chính xác hơn và giải quyết các vấn đề phức tạp một cách hiệu quả.
  • Tiết Kiệm Chi Phí : Phiên bản lượng tử hóa GGUF giúp mô hình chạy hiệu quả trên phần cứng tiêu dùng, giảm chi phí đầu tư cho doanh nghiệp và cá nhân.
  • Dễ Dàng Tiếp Cận : Mô hình có sẵn trên Hugging Face, giúp các nhà phát triển dễ dàng tiếp cận và tích hợp vào các ứng dụng của mình.

Các Ứng Dụng Tiềm Năng Của DeepHermes-3

DeepHermes-3 có tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực:

  • Giáo Dục : Hỗ trợ học sinh và sinh viên trong việc giải quyết các bài toán phức tạp và tìm hiểu kiến thức mới.
  • Chăm Sóc Sức Khỏe : Cung cấp thông tin y tế chính xác và hỗ trợ bác sĩ trong việc chẩn đoán bệnh.
  • Dịch Vụ Khách Hàng : Tự động hóa các tác vụ hỗ trợ khách hàng và cung cấp trải nghiệm cá nhân hóa.
  • Nghiên Cứu Khoa Học : Hỗ trợ các nhà khoa học trong việc phân tích dữ liệu và đưa ra các giả thuyết mới.

So Sánh DeepHermes-3 Với Các Mô Hình AI Khác

So với các mô hình AI khác, DeepHermes-3 có những ưu điểm nổi bật sau:

  • Khả Năng Suy Luận Linh Hoạt : Mô hình có thể chuyển đổi giữa chế độ suy luận sâu và phản hồi nhanh chóng, giúp nó phù hợp với nhiều tình huống khác nhau.
  • Tính Cá Nhân Hóa Cao : Người dùng có thể tùy chỉnh cách thức AI phản hồi, tạo ra trải nghiệm phù hợp với nhu cầu cá nhân.
  • Dễ Dàng Triển Khai : Mô hình có thể chạy hiệu quả trên phần cứng tiêu dùng, giúp các doanh nghiệp và cá nhân dễ dàng triển khai.
  • Mã Nguồn Mở : Mô hình có sẵn trên Hugging Face, giúp các nhà phát triển dễ dàng tiếp cận và tích hợp vào các ứng dụng của mình.

Những Thách Thức Và Cơ Hội Trong Tương Lai

Mặc dù DeepHermes-3 mang lại nhiều tiềm năng, vẫn còn những thách thức cần vượt qua:

  • Duy Trì Tính Ổn Định Của Suy Luận : Đảm bảo rằng chế độ suy luận sâu hoạt động ổn định trong các cuộc trò chuyện dài và phức tạp.
  • Tích Hợp Với Các Công Cụ Khác : Cải thiện khả năng tích hợp với các công cụ khác như gọi hàm và truy xuất thông tin.
  • Đảm Bảo Tính An Toàn Và Đạo Đức : Ngăn chặn mô hình tạo ra nội dung có hại hoặc thông tin sai lệch.

Tuy nhiên, những thách thức này cũng tạo ra những cơ hội lớn cho sự phát triển của DeepHermes-3:

  • Cải Thiện Khả Năng Suy Luận : Tiếp tục nghiên cứu và phát triển các thuật toán suy luận mới để tăng cường khả năng của mô hình.
  • Mở Rộng Ứng Dụng : Khám phá các ứng dụng mới trong các lĩnh vực như giáo dục, chăm sóc sức khỏe và dịch vụ khách hàng.
  • Xây Dựng Cộng Đồng : Tạo ra một cộng đồng mạnh mẽ gồm các nhà phát triển, nhà nghiên cứu và người dùng để cùng nhau phát triển mô hình.

Kết Luận

DeepHermes-3 là một mô hình AI đầy hứa hẹn với khả năng suy luận linh hoạt và tính cá nhân hóa cao. Mô hình này có tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực và có thể đóng góp quan trọng vào sự phát triển của trí tuệ nhân tạo. Mặc dù vẫn còn những thách thức cần vượt qua, DeepHermes-3 đang mở ra một kỷ nguyên mới của AI, nơi mà các mô hình có thể tương tác với con người một cách tự nhiên và hiệu quả hơn.

Huấn luyện LLM: Không cần nhiều dữ liệu cho tác vụ suy luận

Nghiên cứu mới: Không cần quá nhiều dữ liệu để huấn luyện LLM cho các tác vụ suy luận

Giới thiệu về huấn luyện LLM với dữ liệu nhỏ

Các nhà nghiên cứu đã phát hiện ra rằng các mô hình ngôn ngữ lớn (LLM) có thể được huấn luyện hiệu quả cho các tác vụ suy luận phức tạp mà không cần dựa vào lượng dữ liệu khổng lồ. Nghiên cứu này mở ra một hướng đi mới, cho thấy rằng chỉ với một tập dữ liệu được tuyển chọn kỹ lưỡng, chúng ta có thể huấn luyện LLM để thực hiện các tác vụ mà trước đây cần hàng chục nghìn mẫu dữ liệu huấn luyện.

Minh họa về một datasphere

Hình ảnh: Venturebeat, qua Ideogram

Hiệu quả đến từ đâu?

Hiệu quả này đến từ kiến thức vốn có mà các LLM hiện đại thu được trong giai đoạn tiền huấn luyện. Các phương pháp huấn luyện mới ngày càng tiết kiệm dữ liệu và tài nguyên tính toán, giúp các doanh nghiệp có thể tạo ra các mô hình tùy chỉnh mà không cần đến nguồn lực của các phòng thí nghiệm AI lớn. Đây là một bước tiến quan trọng, dân chủ hóa quyền truy cập vào công nghệ AI tiên tiến.

LIMO: Ít hơn là nhiều hơn

Nghiên cứu thách thức giả định rằng cần một lượng lớn dữ liệu để huấn luyện LLM cho các tác vụ suy luận. Các nhà nghiên cứu giới thiệu khái niệm “ít hơn là nhiều hơn” (Less is More – LIMO). Công trình của họ dựa trên nghiên cứu trước đây cho thấy LLM có thể được điều chỉnh phù hợp với sở thích của con người chỉ với một vài ví dụ.

Less is More (LIMO) for reasoning

Ít hơn là nhiều hơn (LIMO) cho suy luận (nguồn: arXiv)

Trong các thử nghiệm, họ đã chứng minh rằng có thể tạo ra một bộ dữ liệu LIMO cho các tác vụ suy luận toán học phức tạp chỉ với vài trăm ví dụ huấn luyện. Một LLM được tinh chỉnh trên bộ dữ liệu này có thể tạo ra các chuỗi suy luận chuỗi tư duy (CoT) phức tạp, cho phép nó hoàn thành các tác vụ với tỷ lệ thành công rất cao.

Ví dụ, một mô hình Qwen2.5-32B-Instruct được tinh chỉnh trên 817 ví dụ huấn luyện được chọn dựa trên LIMO đã đạt được độ chính xác 57,1% trên tiêu chuẩn AIME đầy thách thức và 94,8% trên MATH, vượt trội hơn các mô hình được huấn luyện trên số lượng ví dụ lớn hơn gấp trăm lần. Nó cũng đạt điểm cao hơn trên các tiêu chuẩn so với các mô hình suy luận như QwQ-32B-Preview (một phiên bản của mô hình Qwen đã được huấn luyện cho suy luận) và OpenAI o1-preview, cả hai đều đã được huấn luyện với dữ liệu lớn hơn và tài nguyên tính toán lớn hơn.

Hơn nữa, các mô hình được huấn luyện bằng LIMO có khả năng khái quát hóa cho các ví dụ khác biệt đáng kể so với dữ liệu huấn luyện của chúng. Ví dụ, trên tiêu chuẩn khoa học OlympiadBench, mô hình LIMO hoạt động tốt hơn QwQ-32B-Preview, và trên tiêu chuẩn GPQA đầy thách thức, nó đạt được độ chính xác 66,7%, gần với điểm số hàng đầu của OpenAI-o1-preview là 73,3%.

Ý nghĩa đối với AI doanh nghiệp

Tùy chỉnh LLM là một trường hợp sử dụng hấp dẫn cho các ứng dụng doanh nghiệp. Nhờ các kỹ thuật như tạo sinh tăng cường truy xuất (RAG) và học trong ngữ cảnh, LLM có thể được tùy chỉnh để sử dụng dữ liệu riêng hoặc thực hiện các tác vụ mới mà không cần tinh chỉnh tốn kém.

Tuy nhiên, các tác vụ suy luận thường yêu cầu huấn luyện và tinh chỉnh LLM. Quan điểm phổ biến là các tác vụ như vậy đòi hỏi khối lượng lớn các ví dụ huấn luyện với các chuỗi suy luận và giải pháp chi tiết. Tạo ra các bộ dữ liệu như vậy là chậm và không thực tế đối với nhiều ứng dụng và công ty.

Gần đây hơn, các nhà nghiên cứu đã chỉ ra rằng các phương pháp học tăng cường thuần túy có thể cho phép các mô hình tự huấn luyện cho các tác vụ suy luận bằng cách tạo ra nhiều giải pháp và chọn ra những giải pháp hoạt động tốt nhất. Mặc dù phương pháp này đòi hỏi ít nỗ lực thủ công hơn, nhưng nó vẫn đòi hỏi các tài nguyên tính toán đắt tiền, vượt quá khả năng của nhiều doanh nghiệp.

Mặt khác, việc tạo ra vài trăm ví dụ là một nỗ lực mà nhiều công ty có thể thực hiện, đưa các mô hình suy luận chuyên dụng đến gần hơn với nhiều tổ chức hơn.

“Khám phá này có ý nghĩa sâu sắc đối với nghiên cứu trí tuệ nhân tạo: Nó cho thấy rằng ngay cả khả năng suy luận phức tạp ở cấp độ cạnh tranh cũng có thể được gợi ra một cách hiệu quả thông qua các mẫu huấn luyện tối thiểu nhưng được tuyển chọn,” các nhà nghiên cứu viết.

Tại sao LIMO hoạt động?

Trong các thử nghiệm, các nhà nghiên cứu xác định hai lý do chính tại sao LLM có thể học các tác vụ suy luận phức tạp với ít ví dụ hơn.

Thứ nhất, các mô hình nền tảng hiện đại đã được huấn luyện trên một lượng rất lớn nội dung và mã toán học trong quá trình tiền huấn luyện. Điều này có nghĩa là các LLM này đã sở hữu kiến thức suy luận phong phú trong các tham số của chúng, có thể được kích hoạt thông qua các ví dụ được tạo ra cẩn thận.

Thứ hai, các kỹ thuật hậu huấn luyện mới đã chỉ ra rằng việc cho phép các mô hình tạo ra các chuỗi suy luận mở rộng sẽ cải thiện đáng kể khả năng suy luận của chúng. Về bản chất, việc cho các mô hình thêm thời gian để “suy nghĩ” cho phép chúng giải nén và áp dụng kiến thức đã được huấn luyện trước đó một cách hiệu quả hơn.

“Chúng tôi đưa ra giả thuyết rằng suy luận thành công xuất phát từ sự hiệp lực của hai yếu tố này: kiến thức được huấn luyện trước phong phú và tài nguyên tính toán đầy đủ tại thời điểm suy luận,” các nhà nghiên cứu viết. “Những phát triển này cùng nhau gợi ý một khả năng nổi bật: Nếu các mô hình sở hữu kiến thức suy luận phong phú và được cung cấp không gian tính toán đầy đủ, thì việc kích hoạt khả năng suy luận của chúng có thể chỉ yêu cầu một số lượng nhỏ các mẫu huấn luyện chất lượng cao khuyến khích sự cân nhắc mở rộng, thay vì các bộ dữ liệu tinh chỉnh khổng lồ.”

Choosing more complex problems

Việc chọn các vấn đề phức tạp hơn để đưa vào bộ dữ liệu huấn luyện có thể có ảnh hưởng đáng kể đến độ chính xác của mô hình được huấn luyện trong các tác vụ suy luận (nguồn: arXiv)

Theo các phát hiện của các nhà nghiên cứu, việc tạo ra các bộ dữ liệu LIMO hữu ích phụ thuộc vào việc chọn đúng vấn đề và giải pháp. Những người quản lý dữ liệu nên ưu tiên các vấn đề thách thức đòi hỏi các chuỗi suy luận phức tạp, các quá trình tư duy đa dạng và tích hợp kiến thức. Các vấn đề cũng nên khác biệt so với phân phối huấn luyện của mô hình để khuyến khích các phương pháp suy luận mới và buộc nó hướng tới khái quát hóa.

Theo đó, các giải pháp nên rõ ràng và được tổ chức tốt, với các bước suy luận được điều chỉnh cho phù hợp với độ phức tạp của vấn đề. Các giải pháp chất lượng cao cũng nên cung cấp hỗ trợ giáo dục chiến lược bằng cách dần dần xây dựng sự hiểu biết thông qua các giải thích được cấu trúc cẩn thận.

VMLU Report 02
VMLU Report 02 - 1

“Bằng cách tập trung vào một tập hợp tối thiểu nhưng được tuyển chọn tỉ mỉ các chuỗi suy luận, chúng tôi thể hiện nguyên tắc cốt lõi của LIMO: Các bản trình diễn chất lượng cao, chứ không phải khối lượng dữ liệu đơn thuần, là chìa khóa để mở khóa các khả năng suy luận phức tạp,” các nhà nghiên cứu viết.

Các nhà nghiên cứu đã phát hành mã và dữ liệu được sử dụng để huấn luyện các mô hình LIMO trong các thử nghiệm của họ. Trong tương lai, họ có kế hoạch mở rộng khái niệm này sang các lĩnh vực và ứng dụng khác.

Kết luận: Tương lai của huấn luyện LLM

Nghiên cứu này mở ra một kỷ nguyên mới cho việc huấn luyện LLM, cho phép các doanh nghiệp và cá nhân tạo ra các mô hình suy luận mạnh mẽ với chi phí thấp hơn và hiệu quả hơn. Việc tập trung vào chất lượng hơn số lượng dữ liệu có thể cách mạng hóa cách chúng ta tiếp cận AI, mở ra nhiều cơ hội cho các ứng dụng và đổi mới trong tương lai.

Các từ khóa liên quan:

  • Huấn luyện LLM
  • Suy luận AI
  • Dữ liệu nhỏ
  • LIMO
  • Mô hình ngôn ngữ lớn
  • Học máy
  • Trí tuệ nhân tạo
  • Tinh chỉnh mô hình

Ứng dụng tiềm năng:

  • Phát triển các mô hình AI chuyên dụng cho các ngành công nghiệp cụ thể.
  • Cải thiện khả năng suy luận của trợ lý ảo và chatbot.
  • Tạo ra các công cụ giáo dục thông minh và cá nhân hóa.
  • Hỗ trợ nghiên cứu khoa học và khám phá các giải pháp mới.

Huấn luyện LLM: Không cần nhiều dữ liệu cho tác vụ lý luận

Nghiên cứu mới: Không cần quá nhiều dữ liệu để huấn luyện LLM cho các tác vụ lý luận

Ngày 14 tháng 2 năm 2025, 12:56 PM

Minh họa datasphere

Minh họa datasphere.

Giới thiệu: Cuộc cách mạng trong huấn luyện mô hình ngôn ngữ lớn (LLM)

Các mô hình ngôn ngữ lớn (LLM) đang thay đổi cách chúng ta tương tác với công nghệ. Một nghiên cứu mới đã chứng minh rằng LLM có thể học các tác vụ lý luận phức tạp mà không cần dựa vào bộ dữ liệu khổng lồ. Nghiên cứu này mở ra những khả năng mới cho việc phát triển và triển khai AI, đặc biệt là trong môi trường doanh nghiệp.

Thay vì yêu cầu hàng chục nghìn hoặc thậm chí hàng triệu ví dụ huấn luyện, các nhà nghiên cứu đã phát hiện ra rằng chỉ với một lượng nhỏ các ví dụ được tuyển chọn kỹ lưỡng, bạn có thể huấn luyện một LLM cho các tác vụ mà trước đây được cho là không thể thực hiện được nếu không có nguồn lực tính toán lớn.

Hiệu quả này là do kiến thức vốn có mà các LLM hiện đại có được trong giai đoạn tiền huấn luyện. Với các phương pháp huấn luyện mới ngày càng tiết kiệm dữ liệu và tính toán, các doanh nghiệp có thể tạo ra các mô hình tùy chỉnh mà không cần tiếp cận các tài nguyên của các phòng thí nghiệm AI lớn.

Phương pháp LIMO: Ít hơn là nhiều hơn

Trong nghiên cứu của mình, các nhà nghiên cứu đã thách thức giả định rằng bạn cần một lượng lớn dữ liệu để huấn luyện LLM cho các tác vụ lý luận. Họ giới thiệu khái niệm “less is more” (LIMO – ít hơn là nhiều hơn).

Less is More (LIMO) for reasoning

Less is More (LIMO) cho lý luận

Trong các thí nghiệm của mình, họ đã chứng minh rằng họ có thể tạo ra một bộ dữ liệu LIMO cho các tác vụ lý luận toán học phức tạp chỉ với vài trăm ví dụ huấn luyện. Một LLM được tinh chỉnh trên bộ dữ liệu này đã có thể tạo ra các chuỗi lý luận “chuỗi tư duy” (CoT) phức tạp, cho phép nó hoàn thành các nhiệm vụ với tỷ lệ thành công rất cao.

Ví dụ, một mô hình Qwen2.5-32B-Instruct được tinh chỉnh trên 817 ví dụ huấn luyện được chọn dựa trên LIMO đã đạt được độ chính xác 57,1% trên điểm chuẩn AIME đầy thách thức và 94,8% trên MATH, vượt trội hơn các mô hình được huấn luyện trên số lượng ví dụ gấp hàng trăm lần. Nó cũng đạt điểm cao hơn trên các điểm chuẩn so với các mô hình lý luận như QwQ-32B-Preview (một phiên bản của mô hình Qwen đã được huấn luyện để lý luận) và OpenAI o1-preview, cả hai đều đã được huấn luyện với dữ liệu và tài nguyên tính toán lớn hơn.

Hơn nữa, các mô hình được huấn luyện theo phương pháp LIMO có khả năng tổng quát hóa cho các ví dụ khác biệt đáng kể so với dữ liệu huấn luyện của chúng. Ví dụ, trên điểm chuẩn khoa học OlympiadBench, mô hình LIMO đã vượt trội hơn QwQ-32B-Preview, và trên điểm chuẩn GPQA đầy thách thức, nó đạt được độ chính xác 66,7%, gần với điểm số dẫn đầu 73,3% của OpenAI-o1-preview.

Ứng dụng cho AI doanh nghiệp: Mở ra cánh cửa cho sự đổi mới

Tùy chỉnh LLM là một trường hợp sử dụng hấp dẫn cho các ứng dụng doanh nghiệp. Nhờ các kỹ thuật như tạo sinh tăng cường truy xuất (RAG) và học trong ngữ cảnh, LLM có thể được tùy chỉnh để sử dụng dữ liệu tùy chỉnh hoặc thực hiện các tác vụ mới mà không cần tinh chỉnh tốn kém.

Tuy nhiên, các tác vụ lý luận thường yêu cầu huấn luyện và tinh chỉnh LLM. Niềm tin phổ biến là những nhiệm vụ như vậy đòi hỏi khối lượng lớn các ví dụ huấn luyện với các chuỗi và giải pháp lý luận chi tiết. Việc tạo ra các bộ dữ liệu như vậy rất chậm và không thực tế đối với nhiều ứng dụng và công ty.

Ứng dụng cho AI doanh nghiệp

Ứng dụng AI trong doanh nghiệp.

Gần đây, các nhà nghiên cứu đã chỉ ra rằng các phương pháp học tăng cường thuần túy có thể cho phép các mô hình tự huấn luyện cho các tác vụ lý luận bằng cách tạo ra nhiều giải pháp và chọn ra những giải pháp hoạt động tốt nhất. Mặc dù phương pháp này đòi hỏi ít nỗ lực thủ công hơn, nhưng nó vẫn đòi hỏi các tài nguyên tính toán tốn kém, vượt quá khả năng của nhiều doanh nghiệp.

Mặt khác, việc soạn thảo một vài trăm ví dụ là một nỗ lực mà nhiều công ty có thể thực hiện, đưa các mô hình lý luận chuyên biệt đến gần hơn với nhiều tổ chức.

“Khám phá này có ý nghĩa sâu sắc đối với nghiên cứu trí tuệ nhân tạo: Nó gợi ý rằng ngay cả khả năng lý luận phức tạp ở cấp độ cạnh tranh cũng có thể được khơi gợi một cách hiệu quả thông qua các mẫu huấn luyện tối thiểu nhưng được tuyển chọn,” các nhà nghiên cứu viết.

Tại sao LIMO hoạt động: Giải mã bí mật thành công

Trong các thí nghiệm của mình, các nhà nghiên cứu đã xác định hai lý do chính tại sao LLM có thể học các tác vụ lý luận phức tạp với ít ví dụ hơn.

Thứ nhất, các mô hình nền tảng hiện đại đã được huấn luyện trên một lượng rất lớn nội dung và mã toán học trong quá trình tiền huấn luyện. Điều này có nghĩa là các LLM này đã sở hữu kiến thức lý luận phong phú trong các tham số của chúng, có thể được kích hoạt thông qua các ví dụ được tạo ra cẩn thận.

Thứ hai, các kỹ thuật hậu huấn luyện mới đã chỉ ra rằng việc cho phép các mô hình tạo ra các chuỗi lý luận mở rộng sẽ cải thiện đáng kể khả năng lý luận của chúng. Về bản chất, việc cho các mô hình có thêm thời gian để “suy nghĩ” cho phép chúng giải nén và áp dụng kiến thức được tiền huấn luyện của chúng một cách hiệu quả hơn.

“Chúng tôi giả thuyết rằng lý luận thành công xuất phát từ sự hiệp lực của hai yếu tố này: kiến thức tiền huấn luyện phong phú và đủ tài nguyên tính toán tại thời điểm suy luận,” các nhà nghiên cứu viết. “Những phát triển này cùng nhau gợi ý một khả năng nổi bật: Nếu các mô hình sở hữu kiến thức lý luận phong phú và được cung cấp không gian tính toán đầy đủ, thì việc kích hoạt khả năng lý luận của chúng có thể chỉ yêu cầu một số lượng nhỏ các mẫu huấn luyện chất lượng cao khuyến khích sự cân nhắc mở rộng, thay vì các bộ dữ liệu tinh chỉnh khổng lồ.”

Ảnh minh họa

Việc chọn các vấn đề phức tạp hơn để đưa vào bộ dữ liệu huấn luyện có thể có tác động đáng kể đến độ chính xác của mô hình đã huấn luyện trong các tác vụ lý luận

Theo phát hiện của các nhà nghiên cứu, việc tạo ra các bộ dữ liệu LIMO hữu ích phụ thuộc vào việc chọn đúng vấn đề và giải pháp. Những người quản lý dữ liệu nên ưu tiên các vấn đề đầy thách thức đòi hỏi các chuỗi lý luận phức tạp, các quá trình tư duy đa dạng và tích hợp kiến thức. Các vấn đề cũng nên khác biệt so với phân phối huấn luyện của mô hình để khuyến khích các phương pháp lý luận mới và buộc nó hướng tới sự tổng quát hóa.

Theo đó, các giải pháp phải rõ ràng và được tổ chức tốt, với các bước lý luận được điều chỉnh cho phù hợp với độ phức tạp của vấn đề. Các giải pháp chất lượng cao cũng nên cung cấp hỗ trợ giáo dục chiến lược bằng cách dần dần xây dựng sự hiểu biết thông qua các giải thích có cấu trúc cẩn thận.

“Bằng cách tập trung vào một tập hợp tối thiểu nhưng được tuyển chọn tỉ mỉ các chuỗi lý luận, chúng tôi thể hiện nguyên tắc cốt lõi của LIMO: Các bản trình diễn chất lượng cao, chứ không phải khối lượng dữ liệu đơn thuần, là chìa khóa để mở khóa các khả năng lý luận phức tạp,” các nhà nghiên cứu viết.

Ảnh minh họa 2

Kết luận: Tương lai của LLM và AI

Nghiên cứu này đánh dấu một bước tiến quan trọng trong lĩnh vực trí tuệ nhân tạo. Nó chứng minh rằng chúng ta có thể xây dựng các LLM mạnh mẽ và hiệu quả hơn mà không cần dựa vào các bộ dữ liệu khổng lồ. Điều này có ý nghĩa lớn đối với các doanh nghiệp, những người có thể tùy chỉnh các mô hình AI cho các nhu cầu cụ thể của họ một cách hiệu quả và tiết kiệm chi phí hơn.

Phương pháp LIMO hứa hẹn sẽ mở ra cánh cửa cho sự đổi mới và sáng tạo trong lĩnh vực AI, cho phép các nhà nghiên cứu và nhà phát triển khám phá những khả năng mới và xây dựng các ứng dụng AI mạnh mẽ hơn, thông minh hơn và phù hợp hơn với nhu cầu của con người.

Zalo
Cảnh báo: Hiện nay có rất nhiều đơn vị SỬ DỤNG LẠI các THÔNG TIN NỘI DUNG ĐÀO TẠO của KHÓA HỌC SALE OTA TỪ OTAVN mà không đảm bảo chất lượng và hỗ trợ về sau. Các bạn muốn đăng ký học SALE OTA uy tín hãy liên hệ trực tiếp với OTA Việt Nam. OTAVN có xây dựng các hình thức đào tạo trực tiếp offline cho doanh nghiệp, đào tạo 1-1 từ xa và tự học online. Chúng tôi có 2 tên miền là: otavietnam.com và tranxuanloc.com (founder) có chia sẻ và đăng tải các thông tin liên quan về OTA/ Sale OTA/ Digital Marketing/ Thiết kế website... Với khách hàng/ đối tác đã sử dụng dịch vụ của OTAVN sẽ được HỖ TRỢ MIỄN PHÍ các vấn đề phát sinh, tư vấn giải đáp sau khi đã hoàn thành khóa học hoặc sau khi đã sử dụng dịch vụ trọn đời. Hotline:0934552325 (iMessage/ Zalo/ Whatsapp) - Email: info@scovietnam.com
Điều khoản sử dụng chung | Chính sách bảo vệ quyền riêng tư | Chính sách hoàn tiền học | Quy trình đặt hàng | Hình thức thanh toán

Chú ý: Nội dung khóa học online có thể thay đổi mà không cần báo trước.