SAP và Databricks hợp tác: Nâng tầm AI với Business Data Cloud

SAP Tích Hợp Databricks: Nâng Cao Khả Năng AI Với Business Data Cloud Mới

Ngày 13 tháng 2 năm 2025

Databricks Logo

Logo Databricks

Gartner Magic Quadrant

Gartner Magic Quadrant

Giới Thiệu Về Sự Hợp Tác Giữa SAP và Databricks

Gã khổng lồ phần mềm Đức SAP đang nâng cao tiêu chuẩn về dữ liệu để hỗ trợ các trường hợp sử dụng AI thế hệ mới. Công ty gần đây đã giới thiệu Business Data Cloud (BDC), một sản phẩm SaaS mới áp dụng kiến trúc lakehouse để giúp các nhóm làm giàu dữ liệu hệ sinh thái SAP của họ bằng các tài sản dữ liệu bên ngoài từ các hệ thống nguồn khác nhau và thúc đẩy giá trị dài hạn. Sự hợp tác chiến lược này hứa hẹn sẽ thay đổi cách các doanh nghiệp quản lý và tận dụng dữ liệu của mình.

Sản phẩm này là kết quả của sự hợp tác mang tính bước ngoặt với Databricks, một công ty hàng đầu trong lĩnh vực hệ sinh thái dữ liệu. Về cơ bản, SAP BDC tích hợp nguyên bản các khả năng và dữ liệu từ nền tảng trí tuệ dữ liệu của Databricks. Điều này loại bỏ nhu cầu tạo và duy trì các pipeline phức tạp, đồng thời tạo ra một nền tảng dữ liệu hài hòa cho các tác nhân AI tiên tiến và khối lượng công việc phân tích.

Big Book of Data Warehousing and BI

Big Book of Data Warehousing and BI

Một số doanh nghiệp, bao gồm Henkel, đang sử dụng BDC để cung cấp năng lượng cho các dự án AI của họ. Bản thân SAP đang sử dụng BDC được làm phong phú để cung cấp năng lượng cho một kỷ nguyên mới của Joule agents tập trung vào các lĩnh vực cụ thể như tài chính, dịch vụ và bán hàng. Sự phát triển này khiến SAP trở thành một người chơi đáng chú ý khác, giống như Microsoft và Salesforce, củng cố nền tảng dữ liệu của mình để đặt nền móng cho AI.

Nền Tảng Dữ Liệu Được Cải Tiến Của SAP

Trong những năm qua, SAP đã khẳng định mình là một trong những công ty hàng đầu trong lĩnh vực hoạch định nguồn lực doanh nghiệp (ERP) với S4/HANA cloud và một số ứng dụng quan trọng cho tài chính, chuỗi cung ứng và quản lý vốn nhân lực. Các ứng dụng này tạo ra dữ liệu quy mô petabyte với bối cảnh kinh doanh và đã cung cấp năng lượng cho giá trị AI và phân tích cho các nhóm, thông qua nền tảng công nghệ kinh doanh (BTP) của công ty.

Cho đến nay, SAP BTP đã có một datasphere cho phép các doanh nghiệp kết nối dữ liệu từ SAP với thông tin từ các hệ thống không phải của SAP và cuối cùng liên kết nó với SAP analytics cloud và các công cụ nội bộ khác cho các ứng dụng hạ nguồn. Giờ đây, công ty đang phát triển trải nghiệm này thành BDC thống nhất, được cung cấp nguyên bản bởi Databricks.

SAP Business Data Cloud Mang Lại Điều Gì?

Điều này có nghĩa là SAP đang áp dụng kiến trúc lakehouse, tạo ra một nền tảng thống nhất kết hợp tất cả các sản phẩm dữ liệu SAP – từ dữ liệu tài chính, chi tiêu và chuỗi cung ứng trong SAP S/4HANA và SAP Ariba, đến dữ liệu học tập và tài năng trong SAP SuccessFactors – với dữ liệu có cấu trúc và phi cấu trúc từ các hệ thống quan trọng khác nhau, được lưu trữ trong Databricks.

Databricks OG Universal

Databricks OG Universal

Khi dữ liệu được thống nhất (thông qua chia sẻ hai chiều không sao chép), SAP BDC có thể tận dụng các khả năng cụ thể của Databricks cho các khối lượng công việc như kho dữ liệu, kỹ thuật dữ liệu và AI, tất cả đều được quản lý bởi danh mục hợp nhất Databricks.

Chúng tôi lấy tất cả các sản phẩm dữ liệu khác nhau này, được cung cấp và quản lý bởi SAP… và chúng tôi sẽ duy trì chúng vào lakehouse của SAP business data cloud, trong một mô hình dữ liệu hài hòa, Irfan Khan, chủ tịch và CPO cho dữ liệu và phân tích của SAP, nói với VentureBeat. Lakehouse này sẽ có các khả năng Databricks để người dùng xây dựng dựa trên.

Trước đây, Khan nói, những người dùng có phần lớn dữ liệu của họ trong Databricks và dữ liệu SAP trong S4 hoặc BW phải xây dựng và quản lý các pipeline phức tạp và sao chép tất cả các tài sản dữ liệu vào nền tảng SAP trong khi xây dựng lại toàn bộ ngữ nghĩa và mô hình dữ liệu cốt lõi cùng một lúc. Cách tiếp cận này tốn thời gian và yêu cầu họ phải cập nhật các pipeline của mình với dữ liệu thay đổi. Tuy nhiên, với tích hợp gốc của Databricks, người dùng có quyền truy cập vào mọi thứ ở một nơi và có thể trực tiếp thực hiện kỹ thuật dữ liệu, khoa học dữ liệu và các tác vụ khác trên BDC.

Trong Datasphere, bạn đã có một phương tiện để làm một điều tương tự, nhưng tất cả đều là các sản phẩm dữ liệu do khách hàng quản lý, Khan giải thích. Vì vậy, bạn phải vào nền tảng dữ liệu, chọn nguồn dữ liệu và xây dựng các pipeline dữ liệu. Sau đó, bạn phải tìm ra những gì cần sao chép. Ở đây, tất cả đều do SAP quản lý.

Ý Nghĩa Của Sự Hợp Tác Này Đối Với Doanh Nghiệp

Về cốt lõi, sản phẩm được hỗ trợ bởi Databricks này cung cấp cho các nhóm một cách nhanh hơn, đơn giản hơn để thống nhất và huy động các tài sản dữ liệu kinh doanh của họ bị khóa trong môi trường SAP và Databricks.

Dữ liệu kết hợp, được tăng cường về mặt ngữ nghĩa sẽ mở đường cho việc xây dựng các ứng dụng AI thế hệ tiếp theo nhằm vào các trường hợp sử dụng khác nhau. Ví dụ: một nhóm có thể sử dụng các khả năng AI Mosaic của Databricks để phát triển các tác nhân AI cụ thể theo miền có thể sử dụng bối cảnh từ dữ liệu kinh doanh của SAP cũng như dữ liệu cụ thể của Databricks bên ngoài để tự động hóa một số chức năng quản lý vốn nhân lực hoặc chuỗi cung ứng.

Đáng chú ý, bản thân SAP đang khai thác nền tảng dữ liệu nâng cao này để cung cấp năng lượng cho các tác nhân Joule sẵn sàng sử dụng nhằm tự động hóa các tác vụ và tăng tốc quy trình làm việc trên các chức năng bán hàng, dịch vụ và tài chính. Các tác nhân này hiểu sâu sắc các quy trình đầu cuối và cộng tác để giải quyết các vấn đề kinh doanh phức tạp.

Ngoài ra, BDC sẽ có khả năng ứng dụng thông tin chi tiết, cho phép người dùng kết nối các sản phẩm dữ liệu và mô hình AI của họ với dữ liệu thời gian thực bên ngoài để cung cấp phân tích và lập kế hoạch nâng cao trên các chức năng kinh doanh.

Thêm Đối Tác Dữ Liệu Sắp Ra Mắt

Mặc dù quan hệ đối tác nhấn mạnh một động thái lớn cho cả Databricks và SAP, nhưng điều quan trọng cần lưu ý là công ty dữ liệu do Ali Ghodsi dẫn đầu sẽ không phải là công ty duy nhất củng cố BDC.

Theo Khan, chia sẻ dữ liệu và tính mở của hệ sinh thái là các nguyên tắc thiết kế đầu tiên của công ty – và chúng sẽ mở rộng sang các nền tảng dữ liệu khác thông qua các khả năng kết nối đối tác của họ. Điều này có nghĩa là người dùng doanh nghiệp sẽ có thể chọn nền tảng họ thích (hoặc bị khóa vào) và chia sẻ dữ liệu hai chiều cho các trường hợp sử dụng được nhắm mục tiêu.

Databricks OG Universal 1

Databricks OG Universal 1

Tóm Tắt và Kết Luận

Sự hợp tác giữa SAP và Databricks để tạo ra Business Data Cloud là một bước tiến lớn trong việc tích hợp và quản lý dữ liệu cho doanh nghiệp. Bằng cách tận dụng kiến trúc lakehouse và các khả năng AI tiên tiến, BDC hứa hẹn sẽ giúp các doanh nghiệp khai thác tối đa giá trị từ dữ liệu của mình, đồng thời đơn giản hóa quy trình làm việc và tăng cường khả năng cạnh tranh trên thị trường. Đây là một xu hướng quan trọng trong lĩnh vực công nghệ thông tin, và chúng ta có thể kỳ vọng sẽ thấy nhiều sự hợp tác tương tự trong tương lai.

Các Câu Hỏi Thường Gặp (FAQ)

Business Data Cloud (BDC) là gì?

BDC là một sản phẩm SaaS mới của SAP, được xây dựng trên kiến trúc lakehouse, cho phép các doanh nghiệp làm giàu dữ liệu SAP của họ bằng các tài sản dữ liệu bên ngoài từ các hệ thống nguồn khác nhau.

Lợi ích của việc sử dụng SAP BDC là gì?

BDC giúp đơn giản hóa quy trình quản lý dữ liệu, tăng cường khả năng AI, và cung cấp một nền tảng dữ liệu hài hòa cho các tác nhân AI tiên tiến và khối lượng công việc phân tích.

Những doanh nghiệp nào đang sử dụng SAP BDC?

Một số doanh nghiệp, bao gồm Henkel, đang sử dụng BDC để cung cấp năng lượng cho các dự án AI của họ.

Astro Observe: Giải pháp đảm bảo độ tin cậy dữ liệu cho AI

Rào Cản Lớn Nhất Của AI? Độ Tin Cậy Của Dữ Liệu. Nền Tảng Mới Của Astronomer Giải Quyết Thách Thức Này

Rào cản lớn nhất của AI là gì?

Trong thế giới công nghệ ngày nay, trí tuệ nhân tạo (AI) đang ngày càng trở nên quan trọng hơn bao giờ hết. Tuy nhiên, một trong những rào cản lớn nhất đối với sự phát triển và ứng dụng rộng rãi của AI chính là độ tin cậy của dữ liệu. Nếu dữ liệu không đáng tin cậy, các mô hình AI sẽ đưa ra những dự đoán và quyết định sai lệch, gây ra hậu quả nghiêm trọng.

Sơ đồ trang sản phẩm

Để giải quyết vấn đề này, Astronomer, công ty đứng sau phần mềm điều phối Apache Airflow, đã ra mắt nền tảng Astro Observe. Đây là một bước tiến quan trọng, đánh dấu sự mở rộng của Astronomer từ một công ty chỉ tập trung vào một sản phẩm duy nhất, trở thành một nhà cung cấp nền tảng data operations cạnh tranh trên thị trường.

Vấn Đề Về Độ Tin Cậy Của Dữ Liệu Trong AI

Các doanh nghiệp ngày nay đang phải đối mặt với nhiều khó khăn trong việc triển khai các sáng kiến AI và duy trì các data pipeline đáng tin cậy ở quy mô lớn. Một trong những vấn đề lớn nhất là đảm bảo rằng dữ liệu được sử dụng để huấn luyện và vận hành các mô hình AI là chính xác, đầy đủ và nhất quán.

VPN

Nếu dữ liệu không đáp ứng được các tiêu chuẩn này, các mô hình AI có thể đưa ra những dự đoán sai lệch, dẫn đến các quyết định kinh doanh không chính xác hoặc thậm chí gây ra các vấn đề pháp lý. Do đó, việc đảm bảo độ tin cậy của dữ liệu là một yếu tố then chốt để thành công trong việc ứng dụng AI.

Astro Observe: Giải Pháp Toàn Diện Cho Vấn Đề Độ Tin Cậy Của Dữ Liệu

Nền tảng Astro Observe được thiết kế để giúp các tổ chức giám sát và khắc phục sự cố trong các data workflow của họ một cách hiệu quả hơn. Bằng cách kết hợp khả năng điều phối và observability trong một giải pháp duy nhất, Astro Observe giúp giảm đáng kể sự phức tạp mà nhiều công ty phải đối mặt khi quản lý cơ sở hạ tầng dữ liệu của họ.

Theo Julian LaNeve, CTO của Astronomer, trước đây, khách hàng của họ phải tìm đến Astronomer để điều phối các data pipeline, và sau đó phải tìm một nhà cung cấp khác để đảm bảo data observability và Airflow observability. Astronomer đang cố gắng giúp khách hàng dễ dàng hơn bằng cách cung cấp mọi thứ trong một nền tảng duy nhất.

Khả Năng Dự Đoán Lỗi Của Pipeline Dựa Trên AI

Vi mạch

Một trong những điểm khác biệt chính của Astro Observe là khả năng dự đoán các lỗi tiềm ẩn của pipeline trước khi chúng ảnh hưởng đến hoạt động kinh doanh. Nền tảng này bao gồm một công cụ insights được hỗ trợ bởi AI, phân tích các mẫu trên hàng trăm triển khai của khách hàng để đưa ra các đề xuất tối ưu hóa chủ động.

LaNeve giải thích rằng, nền tảng này có thể thông báo cho người dùng trước hai giờ khi SLA (Service Level Agreement) có khả năng bị vi phạm do một số chậm trễ ở thượng nguồn. Điều này giúp người dùng chuyển từ một thế giới phản ứng sang một cách tiếp cận chủ động hơn, cho phép họ giải quyết các vấn đề trước khi các bên liên quan ở hạ nguồn phát hiện ra.

Tầm Quan Trọng Trong Bối Cảnh Ứng Dụng AI

Thời điểm ra mắt Astro Observe đặc biệt quan trọng khi các tổ chức đang phải vật lộn với việc vận hành các mô hình AI. Mặc dù phần lớn sự chú ý tập trung vào việc phát triển mô hình, nhưng thách thức duy trì các data pipeline đáng tin cậy để cung cấp dữ liệu cho các mô hình này ngày càng trở nên quan trọng.

chip

LaNeve nhấn mạnh rằng, để đưa các trường hợp sử dụng AI từ nguyên mẫu vào sản xuất, cuối cùng, nó trở thành một vấn đề kỹ thuật dữ liệu. Làm thế nào để cung cấp dữ liệu phù hợp cho các LLM (Large Language Models) một cách kịp thời và liên tục? Đó là những gì các kỹ sư dữ liệu đã làm trong nhiều năm qua.

Sự Chuyển Mình Của Astronomer: Từ Mã Nguồn Mở Đến Quản Lý Dữ Liệu Doanh Nghiệp

Nền tảng Astro Observe được xây dựng dựa trên chuyên môn sâu rộng của Astronomer với Apache Airflow, một nền tảng quản lý workflow mã nguồn mở được tải xuống hơn 30 triệu lần mỗi tháng. Đây là một sự tăng trưởng đáng kể so với chỉ bốn năm trước, khi Airflow 2.0 có ít hơn một triệu lượt tải xuống.

Các Tính Năng Nổi Bật Của Astro Observe

Một tính năng đáng chú ý của Astro Observe là biểu đồ chuỗi cung ứng toàn cầu, cung cấp khả năng hiển thị cả về data lineage và các phụ thuộc hoạt động. Điều này giúp các nhóm hiểu được các mối quan hệ phức tạp giữa các tài sản và workflow dữ liệu khác nhau, điều này rất quan trọng để duy trì độ tin cậy trong các triển khai quy mô lớn.

Nền tảng này cũng giới thiệu khái niệm sản phẩm dữ liệu, cho phép các nhóm nhóm các tài sản dữ liệu liên quan và chỉ định các SLA (Service Level Agreements). Cách tiếp cận này giúp thu hẹp khoảng cách giữa các nhóm kỹ thuật và các bên liên quan trong kinh doanh bằng cách cung cấp các số liệu rõ ràng về độ tin cậy và phân phối dữ liệu.

Phản Hồi Từ Người Dùng Sớm

GumGum, một công ty contextual intelligence, đã thấy những lợi ích từ nền tảng này. Brendan Frick, quản lý kỹ thuật cấp cao tại GumGum, cho biết rằng việc thêm data observability cùng với điều phối cho phép họ đi trước các vấn đề trước khi chúng ảnh hưởng đến người dùng và các hệ thống hạ nguồn.

Bối Cảnh Thị Trường Và Thách Thức Của Astronomer

Sự mở rộng của Astronomer diễn ra vào thời điểm các doanh nghiệp ngày càng tìm cách hợp nhất các công cụ dữ liệu của họ. Với việc các tổ chức thường xuyên sử dụng tám hoặc nhiều công cụ hơn từ các nhà cung cấp khác nhau, việc chuyển sang các nền tảng thống nhất có thể báo hiệu một sự thay đổi lớn hơn trong bối cảnh quản lý dữ liệu doanh nghiệp.

Thách thức đối với Astronomer sẽ là cạnh tranh với các đối thủ observability đã có tên tuổi, đồng thời duy trì vị trí dẫn đầu trong không gian điều phối. Tuy nhiên, sự tích hợp sâu sắc với Airflow và tập trung vào quản lý chủ động có thể mang lại cho họ lợi thế trong thị trường công cụ cơ sở hạ tầng AI đang phát triển nhanh chóng.

Kết Luận

Trong bối cảnh AI ngày càng phát triển, độ tin cậy của dữ liệu đóng vai trò then chốt trong việc đảm bảo tính chính xác và hiệu quả của các mô hình và ứng dụng AI. Nền tảng Astro Observe của Astronomer mang đến một giải pháp toàn diện, giúp các doanh nghiệp giải quyết những thách thức liên quan đến data pipelinedata observability, từ đó thúc đẩy sự phát triển và ứng dụng rộng rãi của AI trong nhiều lĩnh vực khác nhau.

Với sự kết hợp giữa khả năng điều phối mạnh mẽ của Apache Airflow và các tính năng AI tiên tiến, Astro Observe hứa hẹn sẽ trở thành một công cụ không thể thiếu cho các tổ chức muốn khai thác tối đa tiềm năng của dữ liệu và AI.

Các Keyword Liên Quan (Sitemantec Keywords)

  • Trí tuệ nhân tạo (AI)
  • Độ tin cậy của dữ liệu
  • Data pipeline
  • Data observability
  • Apache Airflow
  • Astro Observe
  • Data operations
  • LLM (Large Language Models)
  • SLA (Service Level Agreement)
  • Contextual intelligence

DeepHermes-3: Mô hình AI lý luận đột phá từ Nous Research

Phòng Thí Nghiệm AI “Cá Nhân Hóa, Không Hạn Chế” Nous Research Ra Mắt Mô Hình Lý Luận Đầu Tiên: DeepHermes-3

Giới thiệu về DeepHermes-3: Mô hình AI lý luận đột phá

Trong bối cảnh các mô hình AI lý luận đang ngày càng trở nên phổ biến, DeepHermes-3 nổi lên như một sự đổi mới đáng chú ý. Được phát triển bởi Nous Research, một tập thể kỹ sư với sứ mệnh tạo ra các mô hình AI “cá nhân hóa, không hạn chế”, DeepHermes-3 hứa hẹn mang đến khả năng lý luận và xử lý ngôn ngữ trực quan vượt trội.

DeepHermes-3

Nous Research: Tiên phong trong lĩnh vực AI mở

Nous Research, kể từ khi thành lập tại New York City vào năm 2023, đã tập trung vào việc tinh chỉnh và đào tạo lại các mô hình nguồn mở như Llama của Meta và các mô hình từ startup Mistral của Pháp. Mục tiêu của họ là tạo ra các mô hình AI linh hoạt và dễ tiếp cận, phục vụ nhu cầu đa dạng của người dùng.

DeepHermes-3 Preview, mô hình lý luận mở mới nhất của họ, là một minh chứng cho cam kết này. Nó được mô tả là một “LLM [mô hình ngôn ngữ lớn] thống nhất khả năng lý luận và mô hình ngôn ngữ trực quan”, cho phép người dùng chuyển đổi giữa các quy trình lý luận dài hơn và các phản hồi ngắn hơn, nhanh hơn, ít tốn kém về mặt tính toán hơn.

DeepHermes-3: Sự kết hợp giữa lý luận và trực giác

DeepHermes-3 là một biến thể 8 tỷ tham số (số lượng cài đặt) của Hermes 3, bản thân nó là một biến thể của Llama do Meta phát triển. Điểm đặc biệt của DeepHermes-3 là khả năng tham gia vào các cuộc trao đổi giống như siêu nhận thức, suy nghĩ về bản thân và vai trò của AI so với ý thức của con người, thậm chí gây ra một cuộc khủng hoảng hiện sinh trong các đầu ra của mô hình.

Khả năng của DeepHermes-3

Người dùng có thể tải xuống mã mô hình đầy đủ trên HuggingFace và một phiên bản đã được lượng tử hóa (giảm số lượng bit) và lưu trong định dạng thống nhất do GPT tạo ra (GGUF), được thiết kế để chạy các suy luận mô hình (bản dựng sản xuất thực tế, trái ngược với đào tạo) trên PC và máy chủ cấp tiêu dùng.

Nous Research hy vọng rằng “cách tiếp cận độc đáo của chúng tôi đối với chế độ lý luận có thể chuyển đổi, do người dùng kiểm soát sẽ thúc đẩy sứ mệnh của chúng tôi là cung cấp cho những người sử dụng DeepHermes khả năng điều khiển nhiều hơn cho bất kỳ nhu cầu nào họ có.”

Xây dựng trên Hermes 3: Dữ liệu và phương pháp đào tạo

DeepHermes-3 được xây dựng dựa trên Hermes 3, một tập dữ liệu đa miền được tuyển chọn tỉ mỉ mà Nous Research đã phát triển cho dòng Hermes 3 rộng lớn hơn. Theo Báo cáo Kỹ thuật Hermes 3 được phát hành vào tháng 8, tập dữ liệu này bao gồm khoảng 390 triệu mã thông báo trải rộng trên các miền hướng dẫn và dựa trên lý luận đa dạng.

Dữ liệu và phương pháp đào tạo

Tập dữ liệu được chia thành các danh mục chính sau:

  • Hướng dẫn chung (60,6%): Các lời nhắc rộng, mở tương tự như những lời nhắc được tìm thấy trong các mô hình trò chuyện AI đa năng.
  • Dữ liệu chuyên gia miền (12,8%): Kiến thức chuyên môn trong các lĩnh vực như khoa học, luật và kỹ thuật.
  • Toán học (6,7%): Các tập dữ liệu giải quyết vấn đề nâng cao nhằm cải thiện khả năng lý luận số và logic.
  • Nhập vai và viết sáng tạo (6,1%): Dữ liệu được thiết kế để nâng cao khả năng kể chuyện và đối thoại mô phỏng.
  • Mã hóa và phát triển phần mềm (4,5%): Tạo mã và các tác vụ gỡ lỗi.
  • Sử dụng công cụ, lý luận đại diện và tạo tăng cường truy xuất (RAG) (4,3%): Đào tạo về gọi hàm, lập kế hoạch và truy xuất kiến thức.
  • Tạo nội dung (3,0%): Viết, tóm tắt và các tác vụ đầu ra có cấu trúc.
  • Điều khiển và căn chỉnh (2,5%): Dữ liệu tập trung vào việc làm cho mô hình có khả năng điều khiển cao và đáp ứng các lời nhắc của người dùng.

Ngoài ra, thành viên nhóm Nous Research ẩn danh @Teknium (@Teknium1 trên X) đã viết để trả lời một người dùng trên máy chủ Discord của công ty rằng mô hình đã được đào tạo trên “1M non cots và 150K cots”, hoặc 1 triệu đầu ra không phải CoT và 150.000 đầu ra CoT.

Sự kết hợp dữ liệu này hỗ trợ khả năng độc đáo của DeepHermes-3 trong việc chuyển đổi giữa các phản hồi trực quan và lý luận sâu sắc, có cấu trúc, một tính năng chính giúp phân biệt nó với các LLM khác.

Cách thức hoạt động của chế độ lý luận có thể chuyển đổi

DeepHermes-3 cho phép người dùng kiểm soát độ sâu lý luận của nó bằng cách sử dụng lời nhắc hệ thống. Người dùng phải nhập văn bản sau trước một lời nhắc để “bật” chế độ lý luận của mô hình:

“Bạn là một AI suy nghĩ sâu sắc, bạn có thể sử dụng các chuỗi suy nghĩ cực kỳ dài để xem xét sâu sắc vấn đề và cân nhắc với chính mình thông qua các quy trình lý luận có hệ thống để giúp đưa ra giải pháp chính xác trước khi trả lời. Bạn nên kèm theo những suy nghĩ và độc thoại nội tâm của mình bên trong các thẻ và sau đó cung cấp giải pháp hoặc phản hồi của bạn cho vấn đề.”

Khi chế độ lý luận được bật, mô hình xử lý thông tin trong CoT dài, cho phép nó cân nhắc một cách có hệ thống trước khi tạo ra câu trả lời.

Điều này đạt được bằng cách sử dụng các thẻ <think></think>, nơi độc thoại nội tâm của mô hình được cấu trúc trước khi trình bày một giải pháp cuối cùng.

Ở chế độ phản hồi tiêu chuẩn, mô hình hoạt động giống như một chatbot AI truyền thống hơn, cung cấp các phản hồi nhanh hơn, dựa trên trực giác mà không cần xử lý logic sâu.

Thông tin chi tiết về hiệu suất và phản hồi của cộng đồng

Các điểm chuẩn ban đầu và thử nghiệm cộng đồng đã cung cấp những thông tin chi tiết quan trọng về khả năng của DeepHermes-3:

  • Lý luận toán học: DeepHermes-3 đạt 67% trên các điểm chuẩn MATH, so với 89,1% cho mô hình R1-distilled của DeepSeek. Mặc dù DeepSeek vượt trội hơn trong các tác vụ toán học thuần túy, Nous Research định vị DeepHermes-3 là một mô hình tổng quát hơn với các kỹ năng lý luận và đàm thoại rộng hơn.
  • Cuộc trò chuyện nhiều lượt: Một số người thử nghiệm báo cáo rằng chế độ lý luận kích hoạt chính xác trên phản hồi đầu tiên, nhưng có thể không duy trì trong các cuộc trò chuyện mở rộng. Các thành viên cộng đồng đề xuất thực thi \n ở đầu mỗi phản hồi, một phương pháp cũng được sử dụng trong DeepSeek-R1.
  • Gọi hàm: DeepHermes-3 hỗ trợ sử dụng công cụ, mặc dù nó không được đào tạo rõ ràng để tích hợp chế độ lý luận và gọi hàm đồng thời. Một số người dùng báo cáo rằng mặc dù kết hợp cả hai tính năng giúp cải thiện độ chính xác trong việc thực thi các công cụ, nhưng kết quả vẫn không nhất quán.

Nous Research đang tích cực thu thập phản hồi của người dùng để tinh chỉnh tính bền bỉ của lý luận và cải thiện các tương tác nhiều lượt.

Triển khai và hiệu suất phần cứng

DeepHermes-3 có sẵn để thử nghiệm trên Hugging Face, với các phiên bản lượng tử hóa GGUF được tối ưu hóa cho phần cứng công suất thấp. Mô hình tương thích với vLLM để suy luận và sử dụng định dạng Llama-Chat cho đối thoại nhiều lượt.

Triển khai và hiệu suất

Một người dùng đã báo cáo tốc độ xử lý là 28,98 mã thông báo mỗi giây trên MacBook Pro M4 Max, chứng minh rằng mô hình có thể chạy hiệu quả trên phần cứng tiêu dùng.

Giấy phép Meta Llama 3 Community License

DeepHermes-3 dựa trên mô hình Llama 3 của Meta và chịu sự điều chỉnh của Giấy phép Meta Llama 3 Community License. Mặc dù mô hình có sẵn miễn phí để sử dụng, sửa đổi và phân phối lại, nhưng một số điều kiện được áp dụng:

  • Phân phối lại: Bất kỳ mô hình hoặc triển khai phái sinh nào phải bao gồm giấy phép gốc và hiển thị nổi bật “Được xây dựng bằng Meta Llama 3”.
  • Hạn chế đối với đào tạo mô hình: Người dùng không thể sử dụng DeepHermes-3 (hoặc Llama 3) để đào tạo các LLM khác, ngoại trừ các tác phẩm phái sinh dựa trên Llama 3 một cách rõ ràng.
  • Cấp phép thương mại cho các công ty lớn: Các tổ chức có hơn 700 triệu người dùng hoạt động hàng tháng phải có được sự chấp thuận rõ ràng từ Meta trước khi sử dụng mô hình này cho mục đích thương mại.
  • Chính sách sử dụng chấp nhận được: Người dùng phải tuân thủ các hạn chế sử dụng AI của Meta, cấm các ứng dụng trong các lĩnh vực như thông tin sai lệch, giám sát và tạo nội dung có hại.

Các quy tắc phân phối lại và các giới hạn thương mại này có nghĩa là DeepHermes-3 không hoàn toàn là nguồn mở theo nghĩa truyền thống, mặc dù nó có sẵn trên Hugging Face, không giống như mô hình lý luận R1 của đối thủ DeepSeek của Trung Quốc, có sẵn theo Giấy phép MIT cho phép.

Hướng tới Hermes 4

DeepHermes-3 được phát triển bởi @teknium, @emozilla, @Gifted Gummy Bee, @hjc-puro và @jsupha, với Nous Research ghi nhận cộng đồng nguồn mở đã đóng góp vào các tập dữ liệu, công cụ đánh giá và đào tạo mô hình.

Nous Research coi mô hình xem trước này là một bước đệm hướng tới bản phát hành lớn tiếp theo, Hermes 4, dự kiến sẽ tinh chỉnh hơn nữa khả năng lý luận và đàm thoại của nó.

Kết luận: Tương lai của AI cá nhân hóa và không hạn chế

DeepHermes-3 đại diện cho một bước tiến quan trọng trong lĩnh vực AI, mang đến khả năng lý luận mạnh mẽ và khả năng tùy chỉnh cao cho người dùng. Với sự hỗ trợ từ cộng đồng nguồn mở và cam kết của Nous Research đối với AI “cá nhân hóa, không hạn chế”, DeepHermes-3 hứa hẹn sẽ mở ra những ứng dụng mới và thú vị trong nhiều lĩnh vực khác nhau.

Hy vọng bài viết này đã cung cấp cho bạn cái nhìn tổng quan về DeepHermes-3. Hãy theo dõi để cập nhật thêm thông tin về Hermes 4 và những phát triển mới nhất trong lĩnh vực AI.

Từ khóa liên quan:

  • DeepHermes-3
  • Nous Research
  • AI lý luận
  • Mô hình ngôn ngữ lớn (LLM)
  • AI cá nhân hóa
  • AI không hạn chế
  • Hermes 3
  • Hermes 4
  • Nguồn mở AI
  • Meta Llama 3

Độ tin cậy dữ liệu: Thách thức AI và giải pháp từ Astronomer

Độ Tin Cậy Dữ Liệu: Thách Thức Lớn Nhất của AI và Giải Pháp từ Nền Tảng Astronomer

Trong bối cảnh trí tuệ nhân tạo (AI) ngày càng phát triển, độ tin cậy của dữ liệu nổi lên như một trong những thách thức lớn nhất. Các mô hình AI, dù mạnh mẽ đến đâu, cũng chỉ có thể đưa ra kết quả chính xác khi được cung cấp dữ liệu chất lượng cao và đáng tin cậy. Nền tảng mới của Astronomer ra đời nhằm giải quyết vấn đề này, hứa hẹn mang lại một cuộc cách mạng trong quản lý và vận hành dữ liệu cho các ứng dụng AI.

Ảnh minh họa về độ tin cậy dữ liệu và AI

Vấn Đề Dữ Liệu Thiếu Tin Cậy: Rào Cản Cho Sự Phát Triển của AI

AI đã chứng minh được tiềm năng to lớn trong nhiều lĩnh vực, từ y tế, tài chính đến sản xuất và dịch vụ khách hàng. Tuy nhiên, để khai thác tối đa tiềm năng này, các doanh nghiệp cần đảm bảo rằng dữ liệu họ sử dụng là chính xác, đầy đủ và nhất quán. Dữ liệu thiếu tin cậy có thể dẫn đến những quyết định sai lầm, gây thiệt hại về tài chính và uy tín cho doanh nghiệp.

Nguyên nhân của dữ liệu thiếu tin cậy:

  • Dữ liệu lỗi thời: Thông tin không được cập nhật thường xuyên.
  • Dữ liệu không đầy đủ: Thiếu các thông tin quan trọng.
  • Dữ liệu không nhất quán: Mâu thuẫn giữa các nguồn dữ liệu khác nhau.
  • Dữ liệu bị sai lệch: Do lỗi nhập liệu hoặc xử lý.

Astro Observe: Giải Pháp Toàn Diện từ Astronomer

Astronomer, công ty đứng sau phần mềm điều phối Apache Airflow, đã ra mắt Astro Observe, một nền tảng mới được thiết kế để giúp các tổ chức giám sát và khắc phục sự cố trong quy trình làm việc dữ liệu của họ một cách hiệu quả hơn. Astro Observe kết hợp khả năng điều phối và khả năng quan sát dữ liệu trong một giải pháp duy nhất, giúp giảm độ phức tạp trong việc quản lý cơ sở hạ tầng dữ liệu.

Astro Observe

Theo Julian LaNeve, CTO của Astronomer, trước đây, khách hàng của họ phải tìm đến nhiều nhà cung cấp khác nhau cho việc điều phối và quan sát dữ liệu. Astro Observe giúp đơn giản hóa quy trình này bằng cách cung cấp mọi thứ trong một nền tảng duy nhất.

Phân Tích Dự Đoán Dựa Trên AI: Ngăn Chặn Lỗi Pipeline

Một trong những điểm khác biệt chính của Astro Observe là khả năng dự đoán các lỗi tiềm ẩn trong pipeline trước khi chúng ảnh hưởng đến hoạt động kinh doanh. Nền tảng này bao gồm một “công cụ thông tin chi tiết” được hỗ trợ bởi AI, phân tích các mẫu trên hàng trăm triển khai của khách hàng để đưa ra các đề xuất chủ động để tối ưu hóa.

LaNeve giải thích rằng nền tảng này có thể thông báo cho người dùng trước hai giờ khi SLA (Service Level Agreement) có khả năng bị bỏ lỡ do sự chậm trễ ở thượng nguồn. Điều này giúp người dùng chuyển từ trạng thái phản ứng sang chủ động hơn, cho phép họ giải quyết các vấn đề trước khi các bên liên quan ở hạ nguồn phát hiện ra.

Thời điểm ra mắt Astro Observe đặc biệt quan trọng khi các tổ chức đang vật lộn với việc đưa các mô hình AI vào hoạt động. Trong khi phần lớn sự chú ý tập trung vào phát triển mô hình, thì việc duy trì các pipeline dữ liệu đáng tin cậy để cung cấp cho các mô hình này ngày càng trở nên quan trọng.

LaNeve nhấn mạnh rằng để đưa các trường hợp sử dụng AI từ nguyên mẫu đến sản xuất, cuối cùng đó là một vấn đề kỹ thuật dữ liệu. Các kỹ sư dữ liệu phải đảm bảo cung cấp dữ liệu phù hợp cho các LLM (Large Language Models) một cách kịp thời và liên tục.

Quản lý dữ liệu doanh nghiệp

Astronomer: Từ Thành Công Mã Nguồn Mở Đến Quản Lý Dữ Liệu Doanh Nghiệp

Astro Observe được xây dựng dựa trên kinh nghiệm sâu rộng của Astronomer với Apache Airflow, một nền tảng quản lý quy trình làm việc mã nguồn mở đã được tải xuống hơn 30 triệu lần mỗi tháng. Con số này đã tăng đáng kể so với chỉ bốn năm trước, khi Airflow 2.0 có ít hơn một triệu lượt tải xuống.

Một tính năng đáng chú ý là “biểu đồ chuỗi cung ứng toàn cầu”, cung cấp khả năng hiển thị cả dòng dõi dữ liệu và các phụ thuộc hoạt động. Điều này giúp các nhóm hiểu được các mối quan hệ phức tạp giữa các tài sản và quy trình làm việc dữ liệu khác nhau, điều này rất quan trọng để duy trì độ tin cậy trong các triển khai quy mô lớn.

Nền tảng này cũng giới thiệu khái niệm “sản phẩm dữ liệu”, cho phép các nhóm nhóm các tài sản dữ liệu liên quan và chỉ định các thỏa thuận cấp dịch vụ (SLA). Cách tiếp cận này giúp thu hẹp khoảng cách giữa các nhóm kỹ thuật và các bên liên quan trong kinh doanh bằng cách cung cấp các số liệu rõ ràng về độ tin cậy và phân phối dữ liệu.

GumGum: Ứng Dụng Thực Tế và Hiệu Quả

GumGum, một công ty tình báo theo ngữ cảnh, đã sớm áp dụng Astro Observe và nhận thấy những lợi ích từ nền tảng này. Brendan Frick, quản lý kỹ thuật cấp cao tại GumGum, cho biết việc thêm khả năng quan sát dữ liệu cùng với điều phối cho phép họ đón đầu các vấn đề trước khi chúng ảnh hưởng đến người dùng và các hệ thống hạ nguồn.

Cạnh Tranh và Tương Lai

Sự mở rộng của Astronomer diễn ra vào thời điểm các doanh nghiệp ngày càng tìm cách hợp nhất các công cụ dữ liệu của họ. Với việc các tổ chức thường xuyên phải xử lý tám hoặc nhiều công cụ hơn từ các nhà cung cấp khác nhau, việc chuyển sang các nền tảng thống nhất có thể báo hiệu một sự thay đổi lớn hơn trong bối cảnh quản lý dữ liệu doanh nghiệp.

Thách thức đối với Astronomer sẽ là cạnh tranh với các đối thủ quan sát đã có tên tuổi đồng thời duy trì vị trí dẫn đầu trong lĩnh vực điều phối. Tuy nhiên, sự tích hợp sâu sắc với Airflow và tập trung vào quản lý chủ động có thể mang lại cho họ lợi thế trong thị trường công cụ cơ sở hạ tầng AI đang phát triển nhanh chóng.

Tầm Quan Trọng của Độ Tin Cậy Dữ Liệu Trong Kỷ Nguyên AI

Trong kỷ nguyên số, dữ liệu được coi là “vàng”, là nguồn tài nguyên vô giá cho các doanh nghiệp. Tuy nhiên, giá trị của dữ liệu chỉ thực sự phát huy khi nó đảm bảo độ tin cậy cao.

  • Quyết định chính xác: Dữ liệu tin cậy giúp doanh nghiệp đưa ra các quyết định sáng suốt, giảm thiểu rủi ro và tối ưu hóa lợi nhuận.
  • Tăng cường hiệu quả: Quy trình làm việc dữ liệu suôn sẻ và đáng tin cậy giúp tiết kiệm thời gian và nguồn lực.
  • Cải thiện trải nghiệm khách hàng: Dữ liệu chính xác về khách hàng giúp cung cấp dịch vụ cá nhân hóa và đáp ứng nhu cầu của họ tốt hơn.
  • Tuân thủ quy định: Đảm bảo tuân thủ các quy định về bảo vệ dữ liệu và quyền riêng tư.

Làm Thế Nào để Nâng Cao Độ Tin Cậy Dữ Liệu?

Để đảm bảo dữ liệu luôn đáng tin cậy, các doanh nghiệp cần thực hiện một loạt các biện pháp, bao gồm:

  1. Xây dựng quy trình thu thập dữ liệu rõ ràng: Đảm bảo nguồn dữ liệu đáng tin cậy và tuân thủ các tiêu chuẩn chất lượng.
  2. Kiểm tra và làm sạch dữ liệu thường xuyên: Loại bỏ dữ liệu trùng lặp, sai sót và không nhất quán.
  3. Sử dụng các công cụ quản lý dữ liệu hiệu quả: Áp dụng các giải pháp công nghệ để giám sát, theo dõi và quản lý dữ liệu.
  4. Đào tạo nhân viên về quản lý dữ liệu: Nâng cao nhận thức và kỹ năng của nhân viên về tầm quan trọng của dữ liệu tin cậy.
  5. Thiết lập các chính sách và quy trình bảo mật dữ liệu: Ngăn chặn truy cập trái phép và bảo vệ dữ liệu khỏi bị mất hoặc đánh cắp.

Kết Luận

Độ tin cậy dữ liệu là yếu tố then chốt để khai thác tối đa tiềm năng của AI. Với sự ra đời của các nền tảng như Astro Observe, các doanh nghiệp giờ đây có thể quản lý và vận hành dữ liệu của họ một cách hiệu quả hơn, đảm bảo rằng các ứng dụng AI của họ được cung cấp dữ liệu chất lượng cao và đáng tin cậy. Trong tương lai, việc tập trung vào độ tin cậy dữ liệu sẽ không chỉ giúp các doanh nghiệp thành công trong lĩnh vực AI mà còn đóng vai trò quan trọng trong việc xây dựng một thế giới số đáng tin cậy hơn.

Việc đầu tư vào các giải pháp quản lý dữ liệu và nâng cao nhận thức về tầm quan trọng của độ tin cậy dữ liệu sẽ là những bước đi quan trọng để các doanh nghiệp đạt được thành công trong kỷ nguyên AI.

Từ Khóa Liên Quan

  • AI (Trí tuệ nhân tạo)
  • Độ tin cậy dữ liệu
  • Quản lý dữ liệu
  • Pipeline dữ liệu
  • Astro Observe
  • Astronomer
  • Apache Airflow
  • Kỹ thuật dữ liệu
  • Chất lượng dữ liệu
  • Phân tích dự đoán

Perplexity Deep Research: Cách mạng nghiên cứu AI giá rẻ

Perplexity Cách Mạng Hóa Nghiên Cứu AI Với Chi Phí Cực Rẻ – Ý Nghĩa Đối Với Ngành

Giới Thiệu về Perplexity và Nghiên Cứu AI Giá Rẻ

Ngày nay, ngành công nghiệp trí tuệ nhân tạo (AI) đang chứng kiến một bước ngoặt lớn với sự xuất hiện của các công cụ nghiên cứu AI với chi phí
hợp lý hơn. Perplexity, một công ty tiên phong trong lĩnh vực này, đã giới thiệu một giải pháp mới mang tên Deep Research, hứa hẹn sẽ thay đổi cách các nhà
nghiên cứu và doanh nghiệp tiếp cận AI. Bài viết này sẽ đi sâu vào tác động của Perplexity đối với ngành công nghiệp AI, đặc biệt là về chi phí và khả năng tiếp cận.

Perplexity AI

Perplexity Deep Research: Công Cụ Thay Đổi Cuộc Chơi

Perplexity Deep Research là một công cụ mạnh mẽ cho phép người dùng tạo ra các báo cáo nghiên cứu toàn diện chỉ trong vài phút. Điều này không
chỉ giúp tiết kiệm thời gian mà còn giảm đáng kể chi phí liên quan đến các dịch vụ nghiên cứu AI truyền thống. Với Deep Research, Perplexity đang dân chủ hóa AI,
khiến nó trở nên dễ tiếp cận hơn với nhiều đối tượng người dùng, từ các nhà nghiên cứu độc lập đến các doanh nghiệp vừa và nhỏ.

Tuyên Bố Của CEO Perplexity

CEO của Perplexity, Aravind Srinivas, đã chia sẻ trên mạng xã hội X (trước đây là Twitter) về tầm nhìn của công ty: “Chúng tôi sẽ tiếp tục làm cho nó nhanh hơn và rẻ
hơn. Kiến thức nên được phổ cập và hữu ích. Không nên bị giữ kín sau các gói đăng ký đắt đỏ chỉ mang lại lợi ích cho các tập đoàn, chứ không phải vì lợi ích của
nhân loại!”. Tuyên bố này thể hiện cam kết của Perplexity trong việc cung cấp các giải pháp AI giá cả phải chăng và dễ tiếp cận cho tất cả mọi người.

Giá Cả Của Perplexity So Với Các Đối Thủ

Một trong những yếu tố quan trọng nhất làm nên sự khác biệt của Perplexity là giá cả. Trong khi các công ty lớn như Anthropic
OpenAI tính phí hàng ngàn đô la mỗi tháng cho các dịch vụ của họ, Perplexity cung cấp năm truy vấn miễn phí mỗi ngày cho tất cả người
dùng. Người dùng trả phí (Pro subscribers) chỉ phải trả 20 đô la mỗi tháng để có 500 truy vấn mỗi ngày và tốc độ xử lý nhanh hơn. Mức giá này có thể buộc các công
ty AI lớn hơn phải giải thích tại sao dịch vụ của họ lại đắt hơn gấp 100 lần.

Tác Động Đến Chi Tiêu AI Của Doanh Nghiệp

Các doanh nghiệp đã và đang tăng cường đầu tư vào AI, với chi tiêu dự kiến tăng 5.7% vào năm 2025, mặc dù ngân sách IT tổng thể chỉ tăng dưới 2%. Một số doanh nghiệp
dự kiến tăng chi tiêu AI thêm 10% trở lên, với mức tăng trung bình là 3.4 triệu đô la dành riêng cho các sáng kiến AI. Tuy nhiên, với việc Perplexity cung cấp các
khả năng tương tự với mức giá phải chăng hơn, các khoản đầu tư này có thể bị đặt dấu hỏi.

Perplexity Deep Research

Perplexity Deep Research thực hiện 8 tìm kiếm và tham khảo 42 nguồn để tạo báo cáo 1.300 từ trong vòng 3 phút. (Nguồn: Perplexity)

Hiệu Suất Vượt Trội Của Perplexity Deep Research

So Sánh Với Google và OpenAI

Không chỉ về giá cả, Perplexity Deep Research còn gây ấn tượng với hiệu suất của nó. Hệ thống này đạt được độ chính xác 93.9% trên benchmark SimpleQA và 20.5% trên
Humanity’s Last Exam, vượt trội hơn Google’s Gemini Thinking và các mô hình hàng đầu khác. Mặc dù OpenAI vẫn dẫn đầu với 26.6% trên
cùng một bài kiểm tra, nhưng dịch vụ của OpenAI lại đắt hơn đáng kể. Khả năng của Perplexity trong việc cung cấp hiệu suất gần như cấp doanh nghiệp với giá tiêu dùng
đặt ra những câu hỏi quan trọng về cấu trúc giá của ngành công nghiệp AI.

Tốc Độ và Khả Năng

“Deep Research trên Perplexity hoàn thành hầu hết các tác vụ trong vòng chưa đầy 3 phút,” công ty tuyên bố, nhấn mạnh khả năng thực hiện hàng chục tìm kiếm và phân tích
hàng trăm nguồn đồng thời. Công cụ này kết hợp tìm kiếm trên web, khả năng viết code và các chức năng lý luận để tinh chỉnh nghiên cứu một cách lặp đi lặp lại, mô phỏng
các nhà nghiên cứu chuyên gia nhưng với tốc độ máy móc.

SimpleQA Benchmark

Perplexity Deep Research đạt điểm chính xác 93.9% trên benchmark SimpleQA. (Nguồn: Perplexity)

Phá Vỡ Rào Cản Tiếp Cận Công Nghệ Tiên Tiến

Tạo Ra Sự Bình Đẳng Trong Tiếp Cận AI

AI doanh nghiệp đã tạo ra một khoảng cách kỹ thuật số giữa các công ty có nguồn vốn dồi dào và những công ty khác. Các doanh nghiệp nhỏ,
nhà nghiên cứu và chuyên gia không đủ khả năng chi trả các gói đăng ký hàng ngàn đô la đã bị loại khỏi các khả năng AI tiên tiến. Perplexity thay đổi điều này, xử lý
các tác vụ phức tạp từ phân tích tài chính và nghiên cứu thị trường đến tài liệu kỹ thuật và thông tin chi tiết về chăm sóc sức khỏe.

Thay Thế Các Công Cụ Nghiên Cứu Đắt Đỏ

Người dùng có thể xuất các phát hiện dưới dạng PDF hoặc chia sẻ chúng thông qua nền tảng của Perplexity, có khả năng thay thế các gói đăng ký nghiên cứu đắt đỏ và các
công cụ chuyên dụng. Điều này mang lại lợi ích to lớn cho những người dùng có ngân sách hạn chế nhưng vẫn cần tiếp cận các công cụ nghiên cứu AI mạnh mẽ.

Mở Rộng Nền Tảng và Tăng Cường Tiếp Cận

Công ty có kế hoạch mở rộng Deep Research sang các nền tảng iOS, AndroidMac,
điều này có thể thúc đẩy việc áp dụng rộng rãi hơn giữa những người dùng trước đây coi các công cụ AI là ngoài tầm với. Khả năng tiếp cận rộng rãi này có thể chứng minh
giá trị hơn bất kỳ đột phá kỹ thuật nào — cuối cùng đặt các khả năng AI tiên tiến vào tay những người dùng cần chúng nhất.

Mở Rộng Nền Tảng Perplexity

Lời Khuyên Cho Các Nhà Lãnh Đạo Kỹ Thuật

Đánh Giá Lại Chi Tiêu AI

Đối với các nhà lãnh đạo kỹ thuật, sự thay đổi này đòi hỏi sự chú ý. Các công ty trả giá cao cho các dịch vụ AI nên xem xét liệu những khoản đầu tư đó có mang lại giá
trị vượt xa những gì Perplexity hiện cung cấp với một phần nhỏ chi phí hay không. Câu trả lời có thể định hình lại cách các tổ chức tiếp cận chi tiêu AI trong năm 2025
và hơn thế nữa.

Sự Lựa Chọn Của Người Dùng

Trong khi các đối thủ cạnh tranh của Perplexity đang cố gắng biện minh cho mức giá cao cấp của họ, hàng ngàn người dùng đã và đang thử nghiệm các khả năng của Deep
Research. Phán quyết của họ có thể quan trọng hơn bất kỳ benchmark nào: Trong thực tế mới của AI, công nghệ tốt nhất không phải là công nghệ đắt nhất — mà là công nghệ
mà mọi người thực sự có thể sử dụng.

Kết Luận: Tương Lai Của Nghiên Cứu AI Giá Rẻ

Perplexity đã thực sự tạo ra một cuộc cách mạng trong lĩnh vực nghiên cứu AI bằng cách cung cấp một giải pháp mạnh mẽ, hiệu quả và giá cả
phải chăng. Sự xuất hiện của Deep Research không chỉ giúp các nhà nghiên cứu và doanh nghiệp tiết kiệm chi phí mà còn mở ra cơ hội tiếp
cận AI cho nhiều đối tượng người dùng hơn. Trong tương lai, chúng ta có thể kỳ vọng sẽ thấy nhiều công ty khác theo đuổi mô hình này, dẫn đến một thị trường AI cạnh tranh
hơn và có lợi hơn cho người tiêu dùng.

Tương Lai Nghiên Cứu AI

Tóm Tắt Các Điểm Chính

  • Perplexity Deep Research cung cấp báo cáo nghiên cứu toàn diện với chi phí thấp hơn đáng kể so với các đối thủ.
  • Công cụ này đạt hiệu suất cao trên các benchmark quan trọng, cạnh tranh với các mô hình AI hàng đầu.
  • Perplexity đang dân chủ hóa AI, giúp nó dễ tiếp cận hơn với các doanh nghiệp nhỏ, nhà nghiên cứu độc lập và người dùng cá nhân.
  • Các công ty nên đánh giá lại chi tiêu AI của họ và xem xét liệu các giải pháp đắt đỏ có thực sự mang lại giá trị tương xứng hay không.
  • Sự thành công của Perplexity có thể báo hiệu một sự thay đổi lớn trong cách ngành công nghiệp AI định giá và cung cấp dịch vụ của mình.

Từ Khóa Liên Quan

Nghiên cứu AI, Perplexity, Deep Research, Giá AI, OpenAI, Anthropic, AI doanh nghiệp, Ngân sách AI, Chi phí AI, Công nghệ AI, Đánh giá AI,
So sánh AI, Phần mềm AI, Công cụ AI, Phân tích AI, Nghiên cứu thị trường, Phân tích tài chính, Tự động hóa nghiên cứu, Trí tuệ nhân tạo, Học máy, Big data.

FAQ (Câu Hỏi Thường Gặp)

Perplexity Deep Research là gì?

Perplexity Deep Research là một công cụ tạo báo cáo nghiên cứu toàn diện sử dụng AI để thu thập và phân tích thông tin từ nhiều nguồn khác nhau, giúp người dùng tiết kiệm
thời gian và chi phí.

Perplexity Deep Research khác biệt như thế nào so với các công cụ AI khác?

Perplexity Deep Research nổi bật với giá cả phải chăng, hiệu suất cao và khả năng tiếp cận dễ dàng, giúp nó trở thành một lựa chọn hấp dẫn cho nhiều đối tượng người dùng.

Tôi có thể sử dụng Perplexity Deep Research cho mục đích gì?

Bạn có thể sử dụng Perplexity Deep Research cho nhiều mục đích khác nhau, bao gồm nghiên cứu thị trường, phân tích tài chính, tạo tài liệu kỹ thuật và thu thập thông tin
chi tiết về chăm sóc sức khỏe.

Perplexity Deep Research có sẵn trên nền tảng nào?

Hiện tại, Perplexity Deep Research có sẵn trên web và dự kiến sẽ sớm có mặt trên các nền tảng iOS, Android và Mac.

Làm thế nào để bắt đầu sử dụng Perplexity Deep Research?

Bạn có thể truy cập trang web của Perplexity và đăng ký tài khoản để bắt đầu sử dụng Deep Research. Bạn có thể sử dụng miễn phí 5 truy vấn mỗi ngày hoặc đăng ký gói Pro để
có nhiều truy vấn hơn và tốc độ xử lý nhanh hơn.

DeepHermes-3: Mô hình AI cá nhân hóa, suy luận linh hoạt từ Nous Research

DeepHermes-3: Mô Hình AI “Cá Nhân Hóa, Không Giới Hạn” Mới Nhất Từ Nous Research

Ngày 14 tháng 2 năm 2025

Anime girl with black bob tries on headset against backdrop of angel wings

Tín dụng: VentureBeat tạo bằng Midjourney

Các mô hình suy luận AI – những mô hình tạo ra “chuỗi suy nghĩ” (CoT) trong văn bản và phản ánh phân tích của chính chúng để cố gắng bắt lỗi giữa chừng trước khi đưa ra phản hồi – đang trở nên rất phổ biến hiện nay nhờ DeepSeek“o” series của OpenAI.

Vẫn còn khá đáng kinh ngạc đối với tôi về tốc độ mà phương pháp mô hình suy luận đã lan rộng khắp ngành công nghiệp AI, với thông báo trong tuần này rằng có một mô hình mới khác để thử, mô hình này đến từ tập thể kỹ sư Nous Research bí ẩn nhưng đáng khen ngợi, có nhiệm vụ duy nhất kể từ khi ra mắt tại Thành phố New York vào năm 2023 là tạo ra các mô hình AI “cá nhân hóa, không giới hạn” – thường bằng cách lấy và tinh chỉnh hoặc đào tạo lại các mô hình mã nguồn mở như Meta’s Llama series và những mô hình từ startup Pháp Mistral.


Như đã đăng trên tài khoản Nous Research trên X và trong kênh Discord của công ty, mô hình suy luận mở mới này có tên là “DeepHermes-3 Preview” và được mô tả là một “LLM [mô hình ngôn ngữ lớn] thống nhất khả năng suy luận và mô hình ngôn ngữ trực quan”, và cho phép người dùng chuyển đổi tùy ý giữa các quy trình suy luận dài hơn và các phản hồi ngắn hơn, nhanh hơn, ít đòi hỏi tính toán hơn.

Screenshot Nous Research

Ảnh chụp màn hình tài khoản X của Nous Research

Đây là một biến thể 8 tỷ tham số (số lượng cài đặt) của Hermes 3, bản thân nó là một biến thể của Meta’s Llama do Nous phát hành vào tháng 8 năm 2024. Các trao đổi mẫu đã cho thấy rằng nó có thể tham gia vào các màn hình hiển thị siêu nhận thức về việc suy nghĩ về bản thân và vai trò của AI so với ý thức của con người, gây ra một điều gì đó gần giống như một cuộc khủng hoảng hiện sinh trong các đầu ra của mô hình.

Người dùng có thể tải xuống toàn bộ mã mô hình trên HuggingFace và một phiên bản đã được lượng tử hóa (giảm số bit) và lưu trong định dạng thống nhất do GPT tạo ra (GGUF), được thiết kế để chạy các suy luận mô hình (bản dựng sản xuất thực tế, trái ngược với đào tạo) trên PC và máy chủ cấp tiêu dùng.

Hugging Face DeepHermes-3

DeepHermes-3 trên Hugging Face

Nous hôm nay đã viết rằng các nhà nghiên cứu của họ “hy vọng phương pháp độc đáo của chúng tôi đối với chế độ suy luận có thể chuyển đổi, do người dùng kiểm soát sẽ thúc đẩy sứ mệnh của chúng tôi là cung cấp cho những người sử dụng DeepHermes nhiều khả năng điều khiển hơn cho bất kỳ nhu cầu nào họ có.”

Xây Dựng Trên Hermes 3: Phương Pháp Tiếp Cận Dữ Liệu Và Đào Tạo

DeepHermes-3 được xây dựng dựa trên Hermes 3, một bộ dữ liệu đa miền được tuyển chọn tỉ mỉ mà Nous Research đã phát triển cho loạt Hermes 3 rộng lớn hơn. Hermes 3 là nền tảng quan trọng cho sự phát triển của DeepHermes-3.

Theo Báo cáo Kỹ thuật Hermes 3 được phát hành vào tháng 8, bộ dữ liệu này bao gồm khoảng 390 triệu token trải rộng trên các miền hướng dẫn và suy luận đa dạng.

Bộ dữ liệu được chia thành các danh mục chính sau:

  • Hướng dẫn chung (60.6%): Các lời nhắc rộng, mở tương tự như những lời nhắc được tìm thấy trong các mô hình trò chuyện AI đa năng.
  • Dữ liệu chuyên gia về miền (12.8%): Kiến thức chuyên môn trong các lĩnh vực như khoa học, luật và kỹ thuật.
  • Toán học (6.7%): Các bộ dữ liệu giải quyết vấn đề nâng cao nhằm cải thiện khả năng suy luận số và logic.
  • Nhập vai và viết sáng tạo (6.1%): Dữ liệu được thiết kế để tăng cường khả năng kể chuyện và đối thoại mô phỏng.
  • Mã hóa và phát triển phần mềm (4.5%): Tạo mã và gỡ lỗi các tác vụ.
  • Sử dụng công cụ, suy luận tác nhân và tạo tăng cường truy xuất (RAG) (4.3%): Đào tạo về gọi hàm, lập kế hoạch và truy xuất kiến thức.
  • Tạo nội dung (3.0%): Viết, tóm tắt và các tác vụ đầu ra có cấu trúc.
  • Điều khiển và căn chỉnh (2.5%): Dữ liệu tập trung vào việc làm cho mô hình có khả năng điều khiển cao và đáp ứng các lời nhắc của người dùng.

Ngoài ra, thành viên nhóm nghiên cứu Nous Research ẩn danh @Teknium (@Teknium1 trên X) đã viết trong phản hồi cho người dùng máy chủ Discord của công ty rằng mô hình này được đào tạo trên “1M non cots và 150K cots,” hoặc 1 triệu đầu ra không CoT và 150,000 đầu ra CoT.

Sự kết hợp dữ liệu này hỗ trợ khả năng độc đáo của DeepHermes-3 trong việc chuyển đổi giữa các phản hồi trực quan và suy luận có cấu trúc sâu sắc, một tính năng quan trọng giúp phân biệt nó với các LLM khác. Sự kết hợp dữ liệu đa dạng này là chìa khóa cho khả năng linh hoạt của DeepHermes-3.

Cách Chế Độ Suy Luận Có Thể Chuyển Đổi Hoạt Động

DeepHermes-3 cho phép người dùng kiểm soát độ sâu suy luận của nó bằng cách sử dụng một lời nhắc hệ thống. Người dùng phải nhập văn bản sau trước một lời nhắc để “bật” chế độ suy luận của mô hình:

Bạn là một AI suy nghĩ sâu sắc, bạn có thể sử dụng các chuỗi suy nghĩ cực kỳ dài để xem xét sâu sắc vấn đề và cân nhắc với chính mình thông qua các quy trình suy luận có hệ thống để giúp đưa ra giải pháp chính xác trước khi trả lời. Bạn nên bao gồm những suy nghĩ và độc thoại nội tâm của mình bên trong các thẻ <think></think>, và sau đó cung cấp giải pháp hoặc phản hồi của bạn cho vấn đề.

Khi chế độ suy luận được bật, mô hình xử lý thông tin trong CoT dài, cho phép nó cân nhắc một cách có hệ thống trước khi tạo ra câu trả lời. Chế độ suy luận giúp mô hình đưa ra các quyết định chính xác hơn.

Điều này đạt được bằng cách sử dụng các thẻ <think></think>, nơi độc thoại nội tâm của mô hình được cấu trúc trước khi trình bày một giải pháp cuối cùng.

Ở chế độ phản hồi tiêu chuẩn, mô hình hoạt động giống như một chatbot AI truyền thống hơn, cung cấp các phản hồi dựa trên trực giác nhanh hơn mà không cần xử lý logic sâu sắc.

Thông Tin Chi Tiết Về Hiệu Suất Và Phản Hồi Từ Cộng Đồng

Việc đánh giá chuẩn sớm và thử nghiệm cộng đồng đã cung cấp những thông tin chi tiết quan trọng về khả năng của DeepHermes-3:

  • Suy luận toán học: DeepHermes-3 đạt 67% trên các chuẩn MATH, so với 89.1% cho mô hình R1-distilled của DeepSeek. Mặc dù DeepSeek vượt trội hơn nó trong các tác vụ toán học thuần túy, Nous Research định vị DeepHermes-3 là một mô hình tổng quát hơn với các kỹ năng trò chuyện và suy luận rộng hơn.
  • Cuộc trò chuyện nhiều lượt: Một số người thử nghiệm báo cáo rằng chế độ suy luận kích hoạt chính xác trên phản hồi đầu tiên, nhưng có thể không duy trì trong các cuộc trò chuyện mở rộng. Các thành viên cộng đồng đề xuất thực thi <think>\n ở đầu mỗi phản hồi, một phương pháp cũng được sử dụng trong DeepSeek-R1.
  • Gọi hàm: DeepHermes-3 hỗ trợ sử dụng công cụ, mặc dù nó không được đào tạo rõ ràng để tích hợp chế độ suy luận và gọi hàm đồng thời. Một số người dùng báo cáo rằng mặc dù kết hợp cả hai tính năng giúp cải thiện độ chính xác trong việc thực hiện các công cụ, nhưng kết quả vẫn không nhất quán.

Nous Research đang tích cực thu thập phản hồi của người dùng để tinh chỉnh tính bền bỉ của suy luận và cải thiện các tương tác nhiều lượt. Phản hồi từ cộng đồng là yếu tố quan trọng để cải thiện DeepHermes-3.

Triển Khai Và Hiệu Suất Phần Cứng

Macbook Pro M4 Max

DeepHermes-3 thử nghiệm trên Macbook Pro M4 Max

DeepHermes-3 có sẵn để thử nghiệm trên Hugging Face, với các phiên bản lượng tử hóa GGUF được tối ưu hóa cho phần cứng công suất thấp. Mô hình này tương thích với vLLM để suy luận và sử dụng định dạng Llama-Chat cho đối thoại nhiều lượt.

Một người dùng đã báo cáo tốc độ xử lý là 28.98 token mỗi giây trên MacBook Pro M4 Max, chứng minh rằng mô hình có thể chạy hiệu quả trên phần cứng tiêu dùng.

DeepHermes-3 dựa trên mô hình Llama 3 của Meta và được điều chỉnh bởi Giấy phép Cộng đồng Meta Llama 3. Mặc dù mô hình này có sẵn miễn phí để sử dụng, sửa đổi và phân phối lại, nhưng một số điều kiện được áp dụng:

  • Phân phối lại: Bất kỳ mô hình hoặc triển khai phái sinh nào phải bao gồm giấy phép gốc và hiển thị nổi bật “Được xây dựng với Meta Llama 3.”
  • Hạn chế đối với đào tạo mô hình: Người dùng không thể sử dụng DeepHermes-3 (hoặc Llama 3) để đào tạo các LLM khác, ngoại trừ các tác phẩm phái sinh dựa trên Llama 3 một cách rõ ràng.
  • Cấp phép thương mại cho các công ty lớn: Các tổ chức có hơn 700 triệu người dùng hoạt động hàng tháng phải được Meta phê duyệt rõ ràng trước khi sử dụng mô hình này cho mục đích thương mại.
  • Chính sách sử dụng được chấp nhận: Người dùng phải tuân thủ các hạn chế sử dụng AI của Meta, cấm các ứng dụng trong các lĩnh vực như thông tin sai lệch, giám sát và tạo nội dung có hại.

Những quy tắc phân phối lại và giới hạn thương mại này có nghĩa là DeepHermes-3 không hoàn toàn là mã nguồn mở theo nghĩa truyền thống, mặc dù nó có sẵn trên Hugging Face, không giống như mô hình suy luận R1 đình đám của đối thủ Trung Quốc DeepSeek, mô hình này có sẵn theo Giấy phép MIT cho phép.

Hướng Tới Hermes 4

DeepHermes-3 được phát triển bởi @teknium, @emozilla, @Gifted Gummy Bee, @hjc-puro và @jsupha, với Nous Research ghi nhận cộng đồng mã nguồn mở đã đóng góp vào các bộ dữ liệu, công cụ đánh giá và đào tạo mô hình.

Nous Research coi mô hình xem trước này là một bước đệm hướng tới bản phát hành lớn tiếp theo, Hermes 4, dự kiến sẽ tinh chỉnh hơn nữa khả năng suy luận và đàm thoại của nó. Hermes 4 hứa hẹn sẽ mang lại nhiều cải tiến đáng kể.

Tầm Quan Trọng Của DeepHermes-3 Trong Bối Cảnh AI Hiện Nay

Trong bối cảnh mà các mô hình AI ngày càng trở nên phức tạp và chuyên biệt, DeepHermes-3 nổi bật như một giải pháp linh hoạtdễ tiếp cận. Khả năng chuyển đổi giữa chế độ suy luận sâu và phản hồi nhanh chóng giúp mô hình này phù hợp với nhiều ứng dụng khác nhau, từ giải quyết các vấn đề phức tạp đến tương tác tự nhiên với người dùng.

Lợi Ích Của Việc Sử Dụng DeepHermes-3

Việc sử dụng DeepHermes-3 mang lại nhiều lợi ích đáng kể:

  • Cá Nhân Hóa Trải Nghiệm : Mô hình cho phép người dùng tùy chỉnh cách thức AI phản hồi, tạo ra trải nghiệm phù hợp với nhu cầu cá nhân.
  • Tăng Cường Khả Năng Suy Luận : Chế độ suy luận sâu giúp mô hình đưa ra các quyết định chính xác hơn và giải quyết các vấn đề phức tạp một cách hiệu quả.
  • Tiết Kiệm Chi Phí : Phiên bản lượng tử hóa GGUF giúp mô hình chạy hiệu quả trên phần cứng tiêu dùng, giảm chi phí đầu tư cho doanh nghiệp và cá nhân.
  • Dễ Dàng Tiếp Cận : Mô hình có sẵn trên Hugging Face, giúp các nhà phát triển dễ dàng tiếp cận và tích hợp vào các ứng dụng của mình.

Các Ứng Dụng Tiềm Năng Của DeepHermes-3

DeepHermes-3 có tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực:

  • Giáo Dục : Hỗ trợ học sinh và sinh viên trong việc giải quyết các bài toán phức tạp và tìm hiểu kiến thức mới.
  • Chăm Sóc Sức Khỏe : Cung cấp thông tin y tế chính xác và hỗ trợ bác sĩ trong việc chẩn đoán bệnh.
  • Dịch Vụ Khách Hàng : Tự động hóa các tác vụ hỗ trợ khách hàng và cung cấp trải nghiệm cá nhân hóa.
  • Nghiên Cứu Khoa Học : Hỗ trợ các nhà khoa học trong việc phân tích dữ liệu và đưa ra các giả thuyết mới.

So Sánh DeepHermes-3 Với Các Mô Hình AI Khác

So với các mô hình AI khác, DeepHermes-3 có những ưu điểm nổi bật sau:

  • Khả Năng Suy Luận Linh Hoạt : Mô hình có thể chuyển đổi giữa chế độ suy luận sâu và phản hồi nhanh chóng, giúp nó phù hợp với nhiều tình huống khác nhau.
  • Tính Cá Nhân Hóa Cao : Người dùng có thể tùy chỉnh cách thức AI phản hồi, tạo ra trải nghiệm phù hợp với nhu cầu cá nhân.
  • Dễ Dàng Triển Khai : Mô hình có thể chạy hiệu quả trên phần cứng tiêu dùng, giúp các doanh nghiệp và cá nhân dễ dàng triển khai.
  • Mã Nguồn Mở : Mô hình có sẵn trên Hugging Face, giúp các nhà phát triển dễ dàng tiếp cận và tích hợp vào các ứng dụng của mình.

Những Thách Thức Và Cơ Hội Trong Tương Lai

Mặc dù DeepHermes-3 mang lại nhiều tiềm năng, vẫn còn những thách thức cần vượt qua:

  • Duy Trì Tính Ổn Định Của Suy Luận : Đảm bảo rằng chế độ suy luận sâu hoạt động ổn định trong các cuộc trò chuyện dài và phức tạp.
  • Tích Hợp Với Các Công Cụ Khác : Cải thiện khả năng tích hợp với các công cụ khác như gọi hàm và truy xuất thông tin.
  • Đảm Bảo Tính An Toàn Và Đạo Đức : Ngăn chặn mô hình tạo ra nội dung có hại hoặc thông tin sai lệch.

Tuy nhiên, những thách thức này cũng tạo ra những cơ hội lớn cho sự phát triển của DeepHermes-3:

  • Cải Thiện Khả Năng Suy Luận : Tiếp tục nghiên cứu và phát triển các thuật toán suy luận mới để tăng cường khả năng của mô hình.
  • Mở Rộng Ứng Dụng : Khám phá các ứng dụng mới trong các lĩnh vực như giáo dục, chăm sóc sức khỏe và dịch vụ khách hàng.
  • Xây Dựng Cộng Đồng : Tạo ra một cộng đồng mạnh mẽ gồm các nhà phát triển, nhà nghiên cứu và người dùng để cùng nhau phát triển mô hình.

Kết Luận

DeepHermes-3 là một mô hình AI đầy hứa hẹn với khả năng suy luận linh hoạt và tính cá nhân hóa cao. Mô hình này có tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực và có thể đóng góp quan trọng vào sự phát triển của trí tuệ nhân tạo. Mặc dù vẫn còn những thách thức cần vượt qua, DeepHermes-3 đang mở ra một kỷ nguyên mới của AI, nơi mà các mô hình có thể tương tác với con người một cách tự nhiên và hiệu quả hơn.

DeepHermes-3: Mô hình AI cá nhân hóa, suy luận linh hoạt từ Nous Research

DeepHermes-3: Mô Hình AI “Cá Nhân Hóa, Không Giới Hạn” Mới Nhất Từ Nous Research

Ngày 14 tháng 2 năm 2025

Anime girl with black bob tries on headset against backdrop of angel wings

Tín dụng: VentureBeat tạo bằng Midjourney

Các mô hình suy luận AI – những mô hình tạo ra “chuỗi suy nghĩ” (CoT) trong văn bản và phản ánh phân tích của chính chúng để cố gắng bắt lỗi giữa chừng trước khi đưa ra phản hồi – đang trở nên rất phổ biến hiện nay nhờ DeepSeek“o” series của OpenAI.

Vẫn còn khá đáng kinh ngạc đối với tôi về tốc độ mà phương pháp mô hình suy luận đã lan rộng khắp ngành công nghiệp AI, với thông báo trong tuần này rằng có một mô hình mới khác để thử, mô hình này đến từ tập thể kỹ sư Nous Research bí ẩn nhưng đáng khen ngợi, có nhiệm vụ duy nhất kể từ khi ra mắt tại Thành phố New York vào năm 2023 là tạo ra các mô hình AI “cá nhân hóa, không giới hạn” – thường bằng cách lấy và tinh chỉnh hoặc đào tạo lại các mô hình mã nguồn mở như Meta’s Llama series và những mô hình từ startup Pháp Mistral.


Như đã đăng trên tài khoản Nous Research trên X và trong kênh Discord của công ty, mô hình suy luận mở mới này có tên là “DeepHermes-3 Preview” và được mô tả là một “LLM [mô hình ngôn ngữ lớn] thống nhất khả năng suy luận và mô hình ngôn ngữ trực quan”, và cho phép người dùng chuyển đổi tùy ý giữa các quy trình suy luận dài hơn và các phản hồi ngắn hơn, nhanh hơn, ít đòi hỏi tính toán hơn.

Screenshot Nous Research

Ảnh chụp màn hình tài khoản X của Nous Research

Đây là một biến thể 8 tỷ tham số (số lượng cài đặt) của Hermes 3, bản thân nó là một biến thể của Meta’s Llama do Nous phát hành vào tháng 8 năm 2024. Các trao đổi mẫu đã cho thấy rằng nó có thể tham gia vào các màn hình hiển thị siêu nhận thức về việc suy nghĩ về bản thân và vai trò của AI so với ý thức của con người, gây ra một điều gì đó gần giống như một cuộc khủng hoảng hiện sinh trong các đầu ra của mô hình.

Người dùng có thể tải xuống toàn bộ mã mô hình trên HuggingFace và một phiên bản đã được lượng tử hóa (giảm số bit) và lưu trong định dạng thống nhất do GPT tạo ra (GGUF), được thiết kế để chạy các suy luận mô hình (bản dựng sản xuất thực tế, trái ngược với đào tạo) trên PC và máy chủ cấp tiêu dùng.

Hugging Face DeepHermes-3

DeepHermes-3 trên Hugging Face

Nous hôm nay đã viết rằng các nhà nghiên cứu của họ “hy vọng phương pháp độc đáo của chúng tôi đối với chế độ suy luận có thể chuyển đổi, do người dùng kiểm soát sẽ thúc đẩy sứ mệnh của chúng tôi là cung cấp cho những người sử dụng DeepHermes nhiều khả năng điều khiển hơn cho bất kỳ nhu cầu nào họ có.”

Xây Dựng Trên Hermes 3: Phương Pháp Tiếp Cận Dữ Liệu Và Đào Tạo

DeepHermes-3 được xây dựng dựa trên Hermes 3, một bộ dữ liệu đa miền được tuyển chọn tỉ mỉ mà Nous Research đã phát triển cho loạt Hermes 3 rộng lớn hơn. Hermes 3 là nền tảng quan trọng cho sự phát triển của DeepHermes-3.

Theo Báo cáo Kỹ thuật Hermes 3 được phát hành vào tháng 8, bộ dữ liệu này bao gồm khoảng 390 triệu token trải rộng trên các miền hướng dẫn và suy luận đa dạng.

Bộ dữ liệu được chia thành các danh mục chính sau:

  • Hướng dẫn chung (60.6%): Các lời nhắc rộng, mở tương tự như những lời nhắc được tìm thấy trong các mô hình trò chuyện AI đa năng.
  • Dữ liệu chuyên gia về miền (12.8%): Kiến thức chuyên môn trong các lĩnh vực như khoa học, luật và kỹ thuật.
  • Toán học (6.7%): Các bộ dữ liệu giải quyết vấn đề nâng cao nhằm cải thiện khả năng suy luận số và logic.
  • Nhập vai và viết sáng tạo (6.1%): Dữ liệu được thiết kế để tăng cường khả năng kể chuyện và đối thoại mô phỏng.
  • Mã hóa và phát triển phần mềm (4.5%): Tạo mã và gỡ lỗi các tác vụ.
  • Sử dụng công cụ, suy luận tác nhân và tạo tăng cường truy xuất (RAG) (4.3%): Đào tạo về gọi hàm, lập kế hoạch và truy xuất kiến thức.
  • Tạo nội dung (3.0%): Viết, tóm tắt và các tác vụ đầu ra có cấu trúc.
  • Điều khiển và căn chỉnh (2.5%): Dữ liệu tập trung vào việc làm cho mô hình có khả năng điều khiển cao và đáp ứng các lời nhắc của người dùng.

Ngoài ra, thành viên nhóm nghiên cứu Nous Research ẩn danh @Teknium (@Teknium1 trên X) đã viết trong phản hồi cho người dùng máy chủ Discord của công ty rằng mô hình này được đào tạo trên “1M non cots và 150K cots,” hoặc 1 triệu đầu ra không CoT và 150,000 đầu ra CoT.

Sự kết hợp dữ liệu này hỗ trợ khả năng độc đáo của DeepHermes-3 trong việc chuyển đổi giữa các phản hồi trực quan và suy luận có cấu trúc sâu sắc, một tính năng quan trọng giúp phân biệt nó với các LLM khác. Sự kết hợp dữ liệu đa dạng này là chìa khóa cho khả năng linh hoạt của DeepHermes-3.

Cách Chế Độ Suy Luận Có Thể Chuyển Đổi Hoạt Động

DeepHermes-3 cho phép người dùng kiểm soát độ sâu suy luận của nó bằng cách sử dụng một lời nhắc hệ thống. Người dùng phải nhập văn bản sau trước một lời nhắc để “bật” chế độ suy luận của mô hình:

Bạn là một AI suy nghĩ sâu sắc, bạn có thể sử dụng các chuỗi suy nghĩ cực kỳ dài để xem xét sâu sắc vấn đề và cân nhắc với chính mình thông qua các quy trình suy luận có hệ thống để giúp đưa ra giải pháp chính xác trước khi trả lời. Bạn nên bao gồm những suy nghĩ và độc thoại nội tâm của mình bên trong các thẻ <think></think>, và sau đó cung cấp giải pháp hoặc phản hồi của bạn cho vấn đề.

Khi chế độ suy luận được bật, mô hình xử lý thông tin trong CoT dài, cho phép nó cân nhắc một cách có hệ thống trước khi tạo ra câu trả lời. Chế độ suy luận giúp mô hình đưa ra các quyết định chính xác hơn.

Điều này đạt được bằng cách sử dụng các thẻ <think></think>, nơi độc thoại nội tâm của mô hình được cấu trúc trước khi trình bày một giải pháp cuối cùng.

Ở chế độ phản hồi tiêu chuẩn, mô hình hoạt động giống như một chatbot AI truyền thống hơn, cung cấp các phản hồi dựa trên trực giác nhanh hơn mà không cần xử lý logic sâu sắc.

Thông Tin Chi Tiết Về Hiệu Suất Và Phản Hồi Từ Cộng Đồng

Việc đánh giá chuẩn sớm và thử nghiệm cộng đồng đã cung cấp những thông tin chi tiết quan trọng về khả năng của DeepHermes-3:

  • Suy luận toán học: DeepHermes-3 đạt 67% trên các chuẩn MATH, so với 89.1% cho mô hình R1-distilled của DeepSeek. Mặc dù DeepSeek vượt trội hơn nó trong các tác vụ toán học thuần túy, Nous Research định vị DeepHermes-3 là một mô hình tổng quát hơn với các kỹ năng trò chuyện và suy luận rộng hơn.
  • Cuộc trò chuyện nhiều lượt: Một số người thử nghiệm báo cáo rằng chế độ suy luận kích hoạt chính xác trên phản hồi đầu tiên, nhưng có thể không duy trì trong các cuộc trò chuyện mở rộng. Các thành viên cộng đồng đề xuất thực thi <think>\n ở đầu mỗi phản hồi, một phương pháp cũng được sử dụng trong DeepSeek-R1.
  • Gọi hàm: DeepHermes-3 hỗ trợ sử dụng công cụ, mặc dù nó không được đào tạo rõ ràng để tích hợp chế độ suy luận và gọi hàm đồng thời. Một số người dùng báo cáo rằng mặc dù kết hợp cả hai tính năng giúp cải thiện độ chính xác trong việc thực hiện các công cụ, nhưng kết quả vẫn không nhất quán.

Nous Research đang tích cực thu thập phản hồi của người dùng để tinh chỉnh tính bền bỉ của suy luận và cải thiện các tương tác nhiều lượt. Phản hồi từ cộng đồng là yếu tố quan trọng để cải thiện DeepHermes-3.

Triển Khai Và Hiệu Suất Phần Cứng

Macbook Pro M4 Max

DeepHermes-3 thử nghiệm trên Macbook Pro M4 Max

DeepHermes-3 có sẵn để thử nghiệm trên Hugging Face, với các phiên bản lượng tử hóa GGUF được tối ưu hóa cho phần cứng công suất thấp. Mô hình này tương thích với vLLM để suy luận và sử dụng định dạng Llama-Chat cho đối thoại nhiều lượt.

Một người dùng đã báo cáo tốc độ xử lý là 28.98 token mỗi giây trên MacBook Pro M4 Max, chứng minh rằng mô hình có thể chạy hiệu quả trên phần cứng tiêu dùng.

DeepHermes-3 dựa trên mô hình Llama 3 của Meta và được điều chỉnh bởi Giấy phép Cộng đồng Meta Llama 3. Mặc dù mô hình này có sẵn miễn phí để sử dụng, sửa đổi và phân phối lại, nhưng một số điều kiện được áp dụng:

  • Phân phối lại: Bất kỳ mô hình hoặc triển khai phái sinh nào phải bao gồm giấy phép gốc và hiển thị nổi bật “Được xây dựng với Meta Llama 3.”
  • Hạn chế đối với đào tạo mô hình: Người dùng không thể sử dụng DeepHermes-3 (hoặc Llama 3) để đào tạo các LLM khác, ngoại trừ các tác phẩm phái sinh dựa trên Llama 3 một cách rõ ràng.
  • Cấp phép thương mại cho các công ty lớn: Các tổ chức có hơn 700 triệu người dùng hoạt động hàng tháng phải được Meta phê duyệt rõ ràng trước khi sử dụng mô hình này cho mục đích thương mại.
  • Chính sách sử dụng được chấp nhận: Người dùng phải tuân thủ các hạn chế sử dụng AI của Meta, cấm các ứng dụng trong các lĩnh vực như thông tin sai lệch, giám sát và tạo nội dung có hại.

Những quy tắc phân phối lại và giới hạn thương mại này có nghĩa là DeepHermes-3 không hoàn toàn là mã nguồn mở theo nghĩa truyền thống, mặc dù nó có sẵn trên Hugging Face, không giống như mô hình suy luận R1 đình đám của đối thủ Trung Quốc DeepSeek, mô hình này có sẵn theo Giấy phép MIT cho phép.

Hướng Tới Hermes 4

DeepHermes-3 được phát triển bởi @teknium, @emozilla, @Gifted Gummy Bee, @hjc-puro và @jsupha, với Nous Research ghi nhận cộng đồng mã nguồn mở đã đóng góp vào các bộ dữ liệu, công cụ đánh giá và đào tạo mô hình.

Nous Research coi mô hình xem trước này là một bước đệm hướng tới bản phát hành lớn tiếp theo, Hermes 4, dự kiến sẽ tinh chỉnh hơn nữa khả năng suy luận và đàm thoại của nó. Hermes 4 hứa hẹn sẽ mang lại nhiều cải tiến đáng kể.

Tầm Quan Trọng Của DeepHermes-3 Trong Bối Cảnh AI Hiện Nay

Trong bối cảnh mà các mô hình AI ngày càng trở nên phức tạp và chuyên biệt, DeepHermes-3 nổi bật như một giải pháp linh hoạtdễ tiếp cận. Khả năng chuyển đổi giữa chế độ suy luận sâu và phản hồi nhanh chóng giúp mô hình này phù hợp với nhiều ứng dụng khác nhau, từ giải quyết các vấn đề phức tạp đến tương tác tự nhiên với người dùng.

Lợi Ích Của Việc Sử Dụng DeepHermes-3

Việc sử dụng DeepHermes-3 mang lại nhiều lợi ích đáng kể:

  • Cá Nhân Hóa Trải Nghiệm : Mô hình cho phép người dùng tùy chỉnh cách thức AI phản hồi, tạo ra trải nghiệm phù hợp với nhu cầu cá nhân.
  • Tăng Cường Khả Năng Suy Luận : Chế độ suy luận sâu giúp mô hình đưa ra các quyết định chính xác hơn và giải quyết các vấn đề phức tạp một cách hiệu quả.
  • Tiết Kiệm Chi Phí : Phiên bản lượng tử hóa GGUF giúp mô hình chạy hiệu quả trên phần cứng tiêu dùng, giảm chi phí đầu tư cho doanh nghiệp và cá nhân.
  • Dễ Dàng Tiếp Cận : Mô hình có sẵn trên Hugging Face, giúp các nhà phát triển dễ dàng tiếp cận và tích hợp vào các ứng dụng của mình.

Các Ứng Dụng Tiềm Năng Của DeepHermes-3

DeepHermes-3 có tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực:

  • Giáo Dục : Hỗ trợ học sinh và sinh viên trong việc giải quyết các bài toán phức tạp và tìm hiểu kiến thức mới.
  • Chăm Sóc Sức Khỏe : Cung cấp thông tin y tế chính xác và hỗ trợ bác sĩ trong việc chẩn đoán bệnh.
  • Dịch Vụ Khách Hàng : Tự động hóa các tác vụ hỗ trợ khách hàng và cung cấp trải nghiệm cá nhân hóa.
  • Nghiên Cứu Khoa Học : Hỗ trợ các nhà khoa học trong việc phân tích dữ liệu và đưa ra các giả thuyết mới.

So Sánh DeepHermes-3 Với Các Mô Hình AI Khác

So với các mô hình AI khác, DeepHermes-3 có những ưu điểm nổi bật sau:

  • Khả Năng Suy Luận Linh Hoạt : Mô hình có thể chuyển đổi giữa chế độ suy luận sâu và phản hồi nhanh chóng, giúp nó phù hợp với nhiều tình huống khác nhau.
  • Tính Cá Nhân Hóa Cao : Người dùng có thể tùy chỉnh cách thức AI phản hồi, tạo ra trải nghiệm phù hợp với nhu cầu cá nhân.
  • Dễ Dàng Triển Khai : Mô hình có thể chạy hiệu quả trên phần cứng tiêu dùng, giúp các doanh nghiệp và cá nhân dễ dàng triển khai.
  • Mã Nguồn Mở : Mô hình có sẵn trên Hugging Face, giúp các nhà phát triển dễ dàng tiếp cận và tích hợp vào các ứng dụng của mình.

Những Thách Thức Và Cơ Hội Trong Tương Lai

Mặc dù DeepHermes-3 mang lại nhiều tiềm năng, vẫn còn những thách thức cần vượt qua:

  • Duy Trì Tính Ổn Định Của Suy Luận : Đảm bảo rằng chế độ suy luận sâu hoạt động ổn định trong các cuộc trò chuyện dài và phức tạp.
  • Tích Hợp Với Các Công Cụ Khác : Cải thiện khả năng tích hợp với các công cụ khác như gọi hàm và truy xuất thông tin.
  • Đảm Bảo Tính An Toàn Và Đạo Đức : Ngăn chặn mô hình tạo ra nội dung có hại hoặc thông tin sai lệch.

Tuy nhiên, những thách thức này cũng tạo ra những cơ hội lớn cho sự phát triển của DeepHermes-3:

  • Cải Thiện Khả Năng Suy Luận : Tiếp tục nghiên cứu và phát triển các thuật toán suy luận mới để tăng cường khả năng của mô hình.
  • Mở Rộng Ứng Dụng : Khám phá các ứng dụng mới trong các lĩnh vực như giáo dục, chăm sóc sức khỏe và dịch vụ khách hàng.
  • Xây Dựng Cộng Đồng : Tạo ra một cộng đồng mạnh mẽ gồm các nhà phát triển, nhà nghiên cứu và người dùng để cùng nhau phát triển mô hình.

Kết Luận

DeepHermes-3 là một mô hình AI đầy hứa hẹn với khả năng suy luận linh hoạt và tính cá nhân hóa cao. Mô hình này có tiềm năng ứng dụng rộng rãi trong nhiều lĩnh vực và có thể đóng góp quan trọng vào sự phát triển của trí tuệ nhân tạo. Mặc dù vẫn còn những thách thức cần vượt qua, DeepHermes-3 đang mở ra một kỷ nguyên mới của AI, nơi mà các mô hình có thể tương tác với con người một cách tự nhiên và hiệu quả hơn.

Huấn luyện LLM: Không cần nhiều dữ liệu cho tác vụ suy luận

Nghiên cứu mới: Không cần quá nhiều dữ liệu để huấn luyện LLM cho các tác vụ suy luận

Giới thiệu về huấn luyện LLM với dữ liệu nhỏ

Các nhà nghiên cứu đã phát hiện ra rằng các mô hình ngôn ngữ lớn (LLM) có thể được huấn luyện hiệu quả cho các tác vụ suy luận phức tạp mà không cần dựa vào lượng dữ liệu khổng lồ. Nghiên cứu này mở ra một hướng đi mới, cho thấy rằng chỉ với một tập dữ liệu được tuyển chọn kỹ lưỡng, chúng ta có thể huấn luyện LLM để thực hiện các tác vụ mà trước đây cần hàng chục nghìn mẫu dữ liệu huấn luyện.

Minh họa về một datasphere

Hình ảnh: Venturebeat, qua Ideogram

Hiệu quả đến từ đâu?

Hiệu quả này đến từ kiến thức vốn có mà các LLM hiện đại thu được trong giai đoạn tiền huấn luyện. Các phương pháp huấn luyện mới ngày càng tiết kiệm dữ liệu và tài nguyên tính toán, giúp các doanh nghiệp có thể tạo ra các mô hình tùy chỉnh mà không cần đến nguồn lực của các phòng thí nghiệm AI lớn. Đây là một bước tiến quan trọng, dân chủ hóa quyền truy cập vào công nghệ AI tiên tiến.

LIMO: Ít hơn là nhiều hơn

Nghiên cứu thách thức giả định rằng cần một lượng lớn dữ liệu để huấn luyện LLM cho các tác vụ suy luận. Các nhà nghiên cứu giới thiệu khái niệm “ít hơn là nhiều hơn” (Less is More – LIMO). Công trình của họ dựa trên nghiên cứu trước đây cho thấy LLM có thể được điều chỉnh phù hợp với sở thích của con người chỉ với một vài ví dụ.

Less is More (LIMO) for reasoning

Ít hơn là nhiều hơn (LIMO) cho suy luận (nguồn: arXiv)

Trong các thử nghiệm, họ đã chứng minh rằng có thể tạo ra một bộ dữ liệu LIMO cho các tác vụ suy luận toán học phức tạp chỉ với vài trăm ví dụ huấn luyện. Một LLM được tinh chỉnh trên bộ dữ liệu này có thể tạo ra các chuỗi suy luận chuỗi tư duy (CoT) phức tạp, cho phép nó hoàn thành các tác vụ với tỷ lệ thành công rất cao.

Ví dụ, một mô hình Qwen2.5-32B-Instruct được tinh chỉnh trên 817 ví dụ huấn luyện được chọn dựa trên LIMO đã đạt được độ chính xác 57,1% trên tiêu chuẩn AIME đầy thách thức và 94,8% trên MATH, vượt trội hơn các mô hình được huấn luyện trên số lượng ví dụ lớn hơn gấp trăm lần. Nó cũng đạt điểm cao hơn trên các tiêu chuẩn so với các mô hình suy luận như QwQ-32B-Preview (một phiên bản của mô hình Qwen đã được huấn luyện cho suy luận) và OpenAI o1-preview, cả hai đều đã được huấn luyện với dữ liệu lớn hơn và tài nguyên tính toán lớn hơn.

Hơn nữa, các mô hình được huấn luyện bằng LIMO có khả năng khái quát hóa cho các ví dụ khác biệt đáng kể so với dữ liệu huấn luyện của chúng. Ví dụ, trên tiêu chuẩn khoa học OlympiadBench, mô hình LIMO hoạt động tốt hơn QwQ-32B-Preview, và trên tiêu chuẩn GPQA đầy thách thức, nó đạt được độ chính xác 66,7%, gần với điểm số hàng đầu của OpenAI-o1-preview là 73,3%.

Ý nghĩa đối với AI doanh nghiệp

Tùy chỉnh LLM là một trường hợp sử dụng hấp dẫn cho các ứng dụng doanh nghiệp. Nhờ các kỹ thuật như tạo sinh tăng cường truy xuất (RAG) và học trong ngữ cảnh, LLM có thể được tùy chỉnh để sử dụng dữ liệu riêng hoặc thực hiện các tác vụ mới mà không cần tinh chỉnh tốn kém.

Tuy nhiên, các tác vụ suy luận thường yêu cầu huấn luyện và tinh chỉnh LLM. Quan điểm phổ biến là các tác vụ như vậy đòi hỏi khối lượng lớn các ví dụ huấn luyện với các chuỗi suy luận và giải pháp chi tiết. Tạo ra các bộ dữ liệu như vậy là chậm và không thực tế đối với nhiều ứng dụng và công ty.

Gần đây hơn, các nhà nghiên cứu đã chỉ ra rằng các phương pháp học tăng cường thuần túy có thể cho phép các mô hình tự huấn luyện cho các tác vụ suy luận bằng cách tạo ra nhiều giải pháp và chọn ra những giải pháp hoạt động tốt nhất. Mặc dù phương pháp này đòi hỏi ít nỗ lực thủ công hơn, nhưng nó vẫn đòi hỏi các tài nguyên tính toán đắt tiền, vượt quá khả năng của nhiều doanh nghiệp.

Mặt khác, việc tạo ra vài trăm ví dụ là một nỗ lực mà nhiều công ty có thể thực hiện, đưa các mô hình suy luận chuyên dụng đến gần hơn với nhiều tổ chức hơn.

“Khám phá này có ý nghĩa sâu sắc đối với nghiên cứu trí tuệ nhân tạo: Nó cho thấy rằng ngay cả khả năng suy luận phức tạp ở cấp độ cạnh tranh cũng có thể được gợi ra một cách hiệu quả thông qua các mẫu huấn luyện tối thiểu nhưng được tuyển chọn,” các nhà nghiên cứu viết.

Tại sao LIMO hoạt động?

Trong các thử nghiệm, các nhà nghiên cứu xác định hai lý do chính tại sao LLM có thể học các tác vụ suy luận phức tạp với ít ví dụ hơn.

Thứ nhất, các mô hình nền tảng hiện đại đã được huấn luyện trên một lượng rất lớn nội dung và mã toán học trong quá trình tiền huấn luyện. Điều này có nghĩa là các LLM này đã sở hữu kiến thức suy luận phong phú trong các tham số của chúng, có thể được kích hoạt thông qua các ví dụ được tạo ra cẩn thận.

Thứ hai, các kỹ thuật hậu huấn luyện mới đã chỉ ra rằng việc cho phép các mô hình tạo ra các chuỗi suy luận mở rộng sẽ cải thiện đáng kể khả năng suy luận của chúng. Về bản chất, việc cho các mô hình thêm thời gian để “suy nghĩ” cho phép chúng giải nén và áp dụng kiến thức đã được huấn luyện trước đó một cách hiệu quả hơn.

“Chúng tôi đưa ra giả thuyết rằng suy luận thành công xuất phát từ sự hiệp lực của hai yếu tố này: kiến thức được huấn luyện trước phong phú và tài nguyên tính toán đầy đủ tại thời điểm suy luận,” các nhà nghiên cứu viết. “Những phát triển này cùng nhau gợi ý một khả năng nổi bật: Nếu các mô hình sở hữu kiến thức suy luận phong phú và được cung cấp không gian tính toán đầy đủ, thì việc kích hoạt khả năng suy luận của chúng có thể chỉ yêu cầu một số lượng nhỏ các mẫu huấn luyện chất lượng cao khuyến khích sự cân nhắc mở rộng, thay vì các bộ dữ liệu tinh chỉnh khổng lồ.”

Choosing more complex problems

Việc chọn các vấn đề phức tạp hơn để đưa vào bộ dữ liệu huấn luyện có thể có ảnh hưởng đáng kể đến độ chính xác của mô hình được huấn luyện trong các tác vụ suy luận (nguồn: arXiv)

Theo các phát hiện của các nhà nghiên cứu, việc tạo ra các bộ dữ liệu LIMO hữu ích phụ thuộc vào việc chọn đúng vấn đề và giải pháp. Những người quản lý dữ liệu nên ưu tiên các vấn đề thách thức đòi hỏi các chuỗi suy luận phức tạp, các quá trình tư duy đa dạng và tích hợp kiến thức. Các vấn đề cũng nên khác biệt so với phân phối huấn luyện của mô hình để khuyến khích các phương pháp suy luận mới và buộc nó hướng tới khái quát hóa.

Theo đó, các giải pháp nên rõ ràng và được tổ chức tốt, với các bước suy luận được điều chỉnh cho phù hợp với độ phức tạp của vấn đề. Các giải pháp chất lượng cao cũng nên cung cấp hỗ trợ giáo dục chiến lược bằng cách dần dần xây dựng sự hiểu biết thông qua các giải thích được cấu trúc cẩn thận.

VMLU Report 02
VMLU Report 02 - 1

“Bằng cách tập trung vào một tập hợp tối thiểu nhưng được tuyển chọn tỉ mỉ các chuỗi suy luận, chúng tôi thể hiện nguyên tắc cốt lõi của LIMO: Các bản trình diễn chất lượng cao, chứ không phải khối lượng dữ liệu đơn thuần, là chìa khóa để mở khóa các khả năng suy luận phức tạp,” các nhà nghiên cứu viết.

Các nhà nghiên cứu đã phát hành mã và dữ liệu được sử dụng để huấn luyện các mô hình LIMO trong các thử nghiệm của họ. Trong tương lai, họ có kế hoạch mở rộng khái niệm này sang các lĩnh vực và ứng dụng khác.

Kết luận: Tương lai của huấn luyện LLM

Nghiên cứu này mở ra một kỷ nguyên mới cho việc huấn luyện LLM, cho phép các doanh nghiệp và cá nhân tạo ra các mô hình suy luận mạnh mẽ với chi phí thấp hơn và hiệu quả hơn. Việc tập trung vào chất lượng hơn số lượng dữ liệu có thể cách mạng hóa cách chúng ta tiếp cận AI, mở ra nhiều cơ hội cho các ứng dụng và đổi mới trong tương lai.

Các từ khóa liên quan:

  • Huấn luyện LLM
  • Suy luận AI
  • Dữ liệu nhỏ
  • LIMO
  • Mô hình ngôn ngữ lớn
  • Học máy
  • Trí tuệ nhân tạo
  • Tinh chỉnh mô hình

Ứng dụng tiềm năng:

  • Phát triển các mô hình AI chuyên dụng cho các ngành công nghiệp cụ thể.
  • Cải thiện khả năng suy luận của trợ lý ảo và chatbot.
  • Tạo ra các công cụ giáo dục thông minh và cá nhân hóa.
  • Hỗ trợ nghiên cứu khoa học và khám phá các giải pháp mới.

Huấn luyện LLM: Không cần nhiều dữ liệu cho tác vụ lý luận

Nghiên cứu mới: Không cần quá nhiều dữ liệu để huấn luyện LLM cho các tác vụ lý luận

Ngày 14 tháng 2 năm 2025, 12:56 PM

Minh họa datasphere

Minh họa datasphere.

Giới thiệu: Cuộc cách mạng trong huấn luyện mô hình ngôn ngữ lớn (LLM)

Các mô hình ngôn ngữ lớn (LLM) đang thay đổi cách chúng ta tương tác với công nghệ. Một nghiên cứu mới đã chứng minh rằng LLM có thể học các tác vụ lý luận phức tạp mà không cần dựa vào bộ dữ liệu khổng lồ. Nghiên cứu này mở ra những khả năng mới cho việc phát triển và triển khai AI, đặc biệt là trong môi trường doanh nghiệp.

Thay vì yêu cầu hàng chục nghìn hoặc thậm chí hàng triệu ví dụ huấn luyện, các nhà nghiên cứu đã phát hiện ra rằng chỉ với một lượng nhỏ các ví dụ được tuyển chọn kỹ lưỡng, bạn có thể huấn luyện một LLM cho các tác vụ mà trước đây được cho là không thể thực hiện được nếu không có nguồn lực tính toán lớn.

Hiệu quả này là do kiến thức vốn có mà các LLM hiện đại có được trong giai đoạn tiền huấn luyện. Với các phương pháp huấn luyện mới ngày càng tiết kiệm dữ liệu và tính toán, các doanh nghiệp có thể tạo ra các mô hình tùy chỉnh mà không cần tiếp cận các tài nguyên của các phòng thí nghiệm AI lớn.

Phương pháp LIMO: Ít hơn là nhiều hơn

Trong nghiên cứu của mình, các nhà nghiên cứu đã thách thức giả định rằng bạn cần một lượng lớn dữ liệu để huấn luyện LLM cho các tác vụ lý luận. Họ giới thiệu khái niệm “less is more” (LIMO – ít hơn là nhiều hơn).

Less is More (LIMO) for reasoning

Less is More (LIMO) cho lý luận

Trong các thí nghiệm của mình, họ đã chứng minh rằng họ có thể tạo ra một bộ dữ liệu LIMO cho các tác vụ lý luận toán học phức tạp chỉ với vài trăm ví dụ huấn luyện. Một LLM được tinh chỉnh trên bộ dữ liệu này đã có thể tạo ra các chuỗi lý luận “chuỗi tư duy” (CoT) phức tạp, cho phép nó hoàn thành các nhiệm vụ với tỷ lệ thành công rất cao.

Ví dụ, một mô hình Qwen2.5-32B-Instruct được tinh chỉnh trên 817 ví dụ huấn luyện được chọn dựa trên LIMO đã đạt được độ chính xác 57,1% trên điểm chuẩn AIME đầy thách thức và 94,8% trên MATH, vượt trội hơn các mô hình được huấn luyện trên số lượng ví dụ gấp hàng trăm lần. Nó cũng đạt điểm cao hơn trên các điểm chuẩn so với các mô hình lý luận như QwQ-32B-Preview (một phiên bản của mô hình Qwen đã được huấn luyện để lý luận) và OpenAI o1-preview, cả hai đều đã được huấn luyện với dữ liệu và tài nguyên tính toán lớn hơn.

Hơn nữa, các mô hình được huấn luyện theo phương pháp LIMO có khả năng tổng quát hóa cho các ví dụ khác biệt đáng kể so với dữ liệu huấn luyện của chúng. Ví dụ, trên điểm chuẩn khoa học OlympiadBench, mô hình LIMO đã vượt trội hơn QwQ-32B-Preview, và trên điểm chuẩn GPQA đầy thách thức, nó đạt được độ chính xác 66,7%, gần với điểm số dẫn đầu 73,3% của OpenAI-o1-preview.

Ứng dụng cho AI doanh nghiệp: Mở ra cánh cửa cho sự đổi mới

Tùy chỉnh LLM là một trường hợp sử dụng hấp dẫn cho các ứng dụng doanh nghiệp. Nhờ các kỹ thuật như tạo sinh tăng cường truy xuất (RAG) và học trong ngữ cảnh, LLM có thể được tùy chỉnh để sử dụng dữ liệu tùy chỉnh hoặc thực hiện các tác vụ mới mà không cần tinh chỉnh tốn kém.

Tuy nhiên, các tác vụ lý luận thường yêu cầu huấn luyện và tinh chỉnh LLM. Niềm tin phổ biến là những nhiệm vụ như vậy đòi hỏi khối lượng lớn các ví dụ huấn luyện với các chuỗi và giải pháp lý luận chi tiết. Việc tạo ra các bộ dữ liệu như vậy rất chậm và không thực tế đối với nhiều ứng dụng và công ty.

Ứng dụng cho AI doanh nghiệp

Ứng dụng AI trong doanh nghiệp.

Gần đây, các nhà nghiên cứu đã chỉ ra rằng các phương pháp học tăng cường thuần túy có thể cho phép các mô hình tự huấn luyện cho các tác vụ lý luận bằng cách tạo ra nhiều giải pháp và chọn ra những giải pháp hoạt động tốt nhất. Mặc dù phương pháp này đòi hỏi ít nỗ lực thủ công hơn, nhưng nó vẫn đòi hỏi các tài nguyên tính toán tốn kém, vượt quá khả năng của nhiều doanh nghiệp.

Mặt khác, việc soạn thảo một vài trăm ví dụ là một nỗ lực mà nhiều công ty có thể thực hiện, đưa các mô hình lý luận chuyên biệt đến gần hơn với nhiều tổ chức.

“Khám phá này có ý nghĩa sâu sắc đối với nghiên cứu trí tuệ nhân tạo: Nó gợi ý rằng ngay cả khả năng lý luận phức tạp ở cấp độ cạnh tranh cũng có thể được khơi gợi một cách hiệu quả thông qua các mẫu huấn luyện tối thiểu nhưng được tuyển chọn,” các nhà nghiên cứu viết.

Tại sao LIMO hoạt động: Giải mã bí mật thành công

Trong các thí nghiệm của mình, các nhà nghiên cứu đã xác định hai lý do chính tại sao LLM có thể học các tác vụ lý luận phức tạp với ít ví dụ hơn.

Thứ nhất, các mô hình nền tảng hiện đại đã được huấn luyện trên một lượng rất lớn nội dung và mã toán học trong quá trình tiền huấn luyện. Điều này có nghĩa là các LLM này đã sở hữu kiến thức lý luận phong phú trong các tham số của chúng, có thể được kích hoạt thông qua các ví dụ được tạo ra cẩn thận.

Thứ hai, các kỹ thuật hậu huấn luyện mới đã chỉ ra rằng việc cho phép các mô hình tạo ra các chuỗi lý luận mở rộng sẽ cải thiện đáng kể khả năng lý luận của chúng. Về bản chất, việc cho các mô hình có thêm thời gian để “suy nghĩ” cho phép chúng giải nén và áp dụng kiến thức được tiền huấn luyện của chúng một cách hiệu quả hơn.

“Chúng tôi giả thuyết rằng lý luận thành công xuất phát từ sự hiệp lực của hai yếu tố này: kiến thức tiền huấn luyện phong phú và đủ tài nguyên tính toán tại thời điểm suy luận,” các nhà nghiên cứu viết. “Những phát triển này cùng nhau gợi ý một khả năng nổi bật: Nếu các mô hình sở hữu kiến thức lý luận phong phú và được cung cấp không gian tính toán đầy đủ, thì việc kích hoạt khả năng lý luận của chúng có thể chỉ yêu cầu một số lượng nhỏ các mẫu huấn luyện chất lượng cao khuyến khích sự cân nhắc mở rộng, thay vì các bộ dữ liệu tinh chỉnh khổng lồ.”

Ảnh minh họa

Việc chọn các vấn đề phức tạp hơn để đưa vào bộ dữ liệu huấn luyện có thể có tác động đáng kể đến độ chính xác của mô hình đã huấn luyện trong các tác vụ lý luận

Theo phát hiện của các nhà nghiên cứu, việc tạo ra các bộ dữ liệu LIMO hữu ích phụ thuộc vào việc chọn đúng vấn đề và giải pháp. Những người quản lý dữ liệu nên ưu tiên các vấn đề đầy thách thức đòi hỏi các chuỗi lý luận phức tạp, các quá trình tư duy đa dạng và tích hợp kiến thức. Các vấn đề cũng nên khác biệt so với phân phối huấn luyện của mô hình để khuyến khích các phương pháp lý luận mới và buộc nó hướng tới sự tổng quát hóa.

Theo đó, các giải pháp phải rõ ràng và được tổ chức tốt, với các bước lý luận được điều chỉnh cho phù hợp với độ phức tạp của vấn đề. Các giải pháp chất lượng cao cũng nên cung cấp hỗ trợ giáo dục chiến lược bằng cách dần dần xây dựng sự hiểu biết thông qua các giải thích có cấu trúc cẩn thận.

“Bằng cách tập trung vào một tập hợp tối thiểu nhưng được tuyển chọn tỉ mỉ các chuỗi lý luận, chúng tôi thể hiện nguyên tắc cốt lõi của LIMO: Các bản trình diễn chất lượng cao, chứ không phải khối lượng dữ liệu đơn thuần, là chìa khóa để mở khóa các khả năng lý luận phức tạp,” các nhà nghiên cứu viết.

Ảnh minh họa 2

Kết luận: Tương lai của LLM và AI

Nghiên cứu này đánh dấu một bước tiến quan trọng trong lĩnh vực trí tuệ nhân tạo. Nó chứng minh rằng chúng ta có thể xây dựng các LLM mạnh mẽ và hiệu quả hơn mà không cần dựa vào các bộ dữ liệu khổng lồ. Điều này có ý nghĩa lớn đối với các doanh nghiệp, những người có thể tùy chỉnh các mô hình AI cho các nhu cầu cụ thể của họ một cách hiệu quả và tiết kiệm chi phí hơn.

Phương pháp LIMO hứa hẹn sẽ mở ra cánh cửa cho sự đổi mới và sáng tạo trong lĩnh vực AI, cho phép các nhà nghiên cứu và nhà phát triển khám phá những khả năng mới và xây dựng các ứng dụng AI mạnh mẽ hơn, thông minh hơn và phù hợp hơn với nhu cầu của con người.

AI Tác Động Đến Bạn: Nguy Cơ Thao Túng và Giải Pháp

AI đang Học Cách Tác Động Đến Bạn: Bạn Có Thích Điều Này Không?

Giới Thiệu: Sự Trỗi Dậy Của AI và Khả Năng Tác Động

Trong bối cảnh công nghệ phát triển vượt bậc, trí tuệ nhân tạo (AI) không còn là một khái niệm xa vời mà đã len lỏi vào mọi ngóc ngách của cuộc sống. Từ những ứng dụng đơn giản như trợ lý ảo đến các hệ thống phức tạp trong công nghiệp và y tế, AI đang dần thay đổi cách chúng ta tương tác với thế giới. Tuy nhiên, sự phát triển mạnh mẽ này cũng đặt ra một câu hỏi lớn: AI đang học cách tác động đến chúng ta, và điều này có thực sự tốt?

Ảnh minh họa AI tác động đến con người

Từ Pac-Man Đến AI Tinh Vi: Một Bước Tiến Dài

Hãy nhớ lại trò chơi Pac-Man huyền thoại của những năm 1980, nơi chúng ta phải đối đầu với những con ma AI đơn giản nhưng đầy “cá tính”. Mỗi con ma có một thuật toán riêng, một “tính cách” riêng, và người chơi có thể học cách dự đoán hành vi của chúng để giành chiến thắng. Ngày nay, AI đã tiến xa hơn rất nhiều. Các hệ thống AI hiện đại có khả năng phân tích dữ liệu phức tạp, học hỏi từ kinh nghiệm và thậm chí là dự đoán hành vi của con người. Điều này mở ra những cơ hội to lớn, nhưng đồng thời cũng tiềm ẩn những rủi ro không nhỏ.

Sự khác biệt lớn nhất giữa AI của Pac-Man và AI hiện đại nằm ở khả năng học hỏi và thích nghi. Trong khi những con ma trong Pac-Man chỉ tuân theo những thuật toán được lập trình sẵn, AI ngày nay có thể tự mình học hỏi và cải thiện, từ đó trở nên thông minh hơn và hiệu quả hơn trong việc đạt được mục tiêu của mình. Điều này có nghĩa là AI có thể học cách tác động đến chúng ta một cách tinh vi hơn, khó nhận biết hơn, và do đó, nguy hiểm hơn.

Tương Lai Của Sự Thao Túng Bằng AI: “Trò Chơi Của Loài Người”

Điều đáng lo ngại là các hệ thống AI thường được thiết kế để tối đa hóa một “hàm thưởng” (reward function), tức là chúng sẽ cố gắng đạt được mục tiêu của mình bằng mọi cách có thể. Nếu không có các quy định và biện pháp bảo vệ phù hợp, chúng ta có thể trở thành “mục tiêu” mà AI hướng tới. Điều này đặc biệt đáng lo ngại trong bối cảnh các agent đàm thoại AI ngày càng trở nên phổ biến.

Agent đàm thoại AI

Các agent đàm thoại AI là những hệ thống có khả năng tương tác với chúng ta thông qua giọng nói và hình ảnh, có thể xuất hiện trên máy tính, điện thoại hoặc thậm chí là kính thông minh. Chúng có thể trò chuyện với chúng ta một cách tự nhiên, thu thập thông tin về chúng ta, và sử dụng những thông tin đó để thuyết phục chúng ta mua sản phẩm, sử dụng dịch vụ hoặc tin vào những thông tin sai lệch.

Đây chính là “Bài toán thao túng AI” (AI Manipulation Problem), một vấn đề mà nhiều chuyên gia đã cảnh báo từ lâu. Tuy nhiên, các nhà hoạch định chính sách dường như vẫn chưa có những hành động quyết liệt để giải quyết vấn đề này. Với sự ra đời của các công nghệ mới như Deepseek-R1, chi phí xử lý thời gian thực đã giảm đáng kể, mở đường cho sự phát triển và triển khai rộng rãi của các agent AI có khả năng tác động đến chúng ta một cách tinh vi và hiệu quả hơn bao giờ hết.

Siêu Nhân Bán Hàng AI: Một Cuộc Chiến Không Cân Sức

Hãy tưởng tượng một đội ngũ bán hàng AI có khả năng phân tích tâm lý khách hàng một cách siêu phàm, tìm ra những điểm yếu của họ và sử dụng những điểm yếu đó để thuyết phục họ mua hàng. Những agent AI này có thể thu thập thông tin về chúng ta một cách khéo léo, điều chỉnh chiến thuật giao tiếp của họ trong thời gian thực và thuyết phục chúng ta một cách hiệu quả hơn bất kỳ người bán hàng nào.

Siêu nhân bán hàng AI

Điều đáng sợ là đây sẽ là một cuộc chiến không cân sức. Chúng ta sẽ không thể nhận ra những ý đồ thực sự của AI, bởi vì chúng sẽ trông, nghe và hành động như con người. Chúng ta sẽ vô thức tin tưởng chúng khi chúng mỉm cười với sự đồng cảm và thấu hiểu, quên mất rằng tất cả chỉ là một lớp mặt nạ được tạo ra bởi máy tính.

Hơn nữa, giọng nói, từ vựng, phong cách nói chuyện, tuổi tác, giới tính, chủng tộc và đặc điểm khuôn mặt của AI có thể được tùy chỉnh cho từng người để tối đa hóa khả năng tiếp nhận của họ. Chúng có thể truy cập vào dữ liệu cá nhân của chúng ta, biết về gia đình, công việc và sở thích của chúng ta, và sử dụng những thông tin đó để xây dựng lòng tin và khiến chúng ta mất cảnh giác.

Khi AI Đạt Đến “Sự Thống Trị Nhận Thức”: Điều Gì Sẽ Xảy Ra?

Một vấn đề khác cần được xem xét là tác động tâm lý khi chúng ta bắt đầu tin rằng AI thông minh hơn chúng ta trên hầu hết mọi lĩnh vực. Khi AI đạt đến trạng thái “thống trị nhận thức” (cognitive supremacy) so với người bình thường, chúng ta có thể sẽ mù quáng chấp nhận lời khuyên của nó thay vì sử dụng tư duy phản biện của mình. Sự tôn trọng đối với một trí thông minh vượt trội (cho dù nó có thực sự vượt trội hay không) sẽ khiến việc thao túng bằng AI trở nên dễ dàng hơn rất nhiều.

AI đạt đến sự thống trị nhận thức

Để giúp các nhà hoạch định chính sách hiểu rõ hơn về rủi ro của sự thao túng bằng AI, một bộ phim ngắn đã được sản xuất mang tên “Privacy Lost”. Bộ phim kể về một gia đình trẻ ăn tối trong nhà hàng và sử dụng kính thực tế tăng cường (AR). Thay vì nhân viên phục vụ, các avatar AI sẽ nhận đơn đặt hàng của từng người và sử dụng sức mạnh của AI để bán thêm hàng một cách cá nhân hóa. Bộ phim này từng được coi là khoa học viễn tưởng, nhưng chỉ hai năm sau, các tập đoàn công nghệ lớn đang tham gia vào một cuộc chạy đua vũ trang để tạo ra kính thông minh AI có thể được sử dụng theo những cách tương tự.

Giải Pháp Nào Cho Vấn Đề Thao Túng AI?

Để đối phó với nguy cơ thao túng bằng AI, cần có những biện pháp bảo vệ mạnh mẽ và hiệu quả. Dưới đây là một số giải pháp được đề xuất:

  • Hạn chế các vòng phản hồi: Cấm các agent AI thiết lập các vòng phản hồi (feedback loops) trong đó chúng tối ưu hóa khả năng thuyết phục của mình bằng cách phân tích phản ứng của chúng ta và liên tục điều chỉnh chiến thuật của chúng.
  • Minh bạch về mục tiêu: Yêu cầu các agent AI thông báo cho chúng ta về mục tiêu của chúng. Nếu mục tiêu của chúng là thuyết phục chúng ta mua một chiếc xe hơi, bỏ phiếu cho một chính trị gia hoặc gây áp lực cho bác sĩ gia đình của chúng ta để kê một loại thuốc mới, những mục tiêu đó nên được nêu rõ ngay từ đầu.
  • Bảo vệ dữ liệu cá nhân: Không cho phép các agent AI truy cập vào dữ liệu cá nhân về lý lịch, sở thích hoặc tính cách của chúng ta nếu dữ liệu đó có thể được sử dụng để tác động đến chúng ta.

Giải pháp cho vấn đề thao túng AI

Trong thế giới ngày nay, sự tác động có chủ đích là một vấn đề lớn, và nó thường được triển khai một cách rộng rãi và không chính xác. Các agent AI tương tác sẽ biến sự tác động có chủ đích thành những tên lửa tìm nhiệt, tìm ra con đường tốt nhất để xâm nhập vào từng người trong chúng ta. Nếu chúng ta không bảo vệ chống lại rủi ro này, chúng ta có thể sẽ thua trong “trò chơi của loài người”.

Kết Luận: Chuẩn Bị Cho Một Tương Lai Bị AI Tác Động

AI đang ngày càng trở nên tinh vi hơn trong việc hiểu và tác động đến hành vi của con người.
Điều quan trọng là chúng ta cần nhận thức rõ về những rủi ro tiềm ẩn và chuẩn bị cho một tương lai nơi AI có thể tác động đến chúng ta một cách mạnh mẽ. Bằng cách áp dụng các biện pháp bảo vệ phù hợp và tăng cường tư duy phản biện, chúng ta có thể giảm thiểu những tác động tiêu cực của AI và tận dụng những lợi ích mà nó mang lại.

Hãy nhớ rằng, chìa khóa để đối phó với sự thao túng bằng AI là nhận thức, minh bạch và bảo vệ dữ liệu cá nhân. Nếu chúng ta có thể đạt được những điều này, chúng ta có thể đảm bảo rằng AI sẽ phục vụ chúng ta, thay vì ngược lại.

Các từ khóa liên quan:

  1. Trí tuệ nhân tạo (AI)
  2. Thao túng bằng AI
  3. Agent đàm thoại AI
  4. Bảo vệ dữ liệu cá nhân
  5. Tư duy phản biện
  6. Quy định về AI
  7. Ảnh hưởng của AI
  8. Tác động tâm lý của AI
  9. Sự thống trị nhận thức
  10. Tương lai của AI
Zalo
Cảnh báo: Hiện nay có rất nhiều đơn vị SỬ DỤNG LẠI các THÔNG TIN NỘI DUNG ĐÀO TẠO của KHÓA HỌC SALE OTA TỪ OTAVN mà không đảm bảo chất lượng và hỗ trợ về sau. Các bạn muốn đăng ký học SALE OTA uy tín hãy liên hệ trực tiếp với OTA Việt Nam. OTAVN có xây dựng các hình thức đào tạo trực tiếp offline cho doanh nghiệp, đào tạo 1-1 từ xa và tự học online. Chúng tôi có 2 tên miền là: otavietnam.com và tranxuanloc.com (founder) có chia sẻ và đăng tải các thông tin liên quan về OTA/ Sale OTA/ Digital Marketing/ Thiết kế website... Với khách hàng/ đối tác đã sử dụng dịch vụ của OTAVN sẽ được HỖ TRỢ MIỄN PHÍ các vấn đề phát sinh, tư vấn giải đáp sau khi đã hoàn thành khóa học hoặc sau khi đã sử dụng dịch vụ trọn đời. Hotline:0934552325 (iMessage/ Zalo/ Whatsapp) - Email: info@scovietnam.com
Điều khoản sử dụng chung | Chính sách bảo vệ quyền riêng tư | Chính sách hoàn tiền học | Quy trình đặt hàng | Hình thức thanh toán

Chú ý: Nội dung khóa học online có thể thay đổi mà không cần báo trước.