Thử quần áo ảo với AI: Tạo người mẫu ảo bằng ComfyUI và IP Adapter

Tương Lai Của Thương Mại Điện Tử: Thử Quần Áo Ảo Với AI?

Giới Thiệu

Trong thế giới thương mại điện tử ngày càng phát triển, việc tìm ra những cách mới để nâng cao trải nghiệm mua sắm trực tuyến là vô cùng quan trọng. Một trong những xu hướng thú vị nhất hiện nay là sử dụng trí tuệ nhân tạo (AI) để tạo ra các “người mẫu ảo” và cho phép khách hàng
thử quần áo ảo. Bài viết này sẽ khám phá tương lai của thương mại điện tử với sự trợ giúp của AI, tập trung vào việc tạo ra một “agent” có khả năng thử quần áo ảo, giúp khách hàng hình dung rõ hơn về sản phẩm trước khi quyết định mua hàng.

Người mẫu AI mặc quần áo ảo

Sự Trỗi Dậy Của Người Mẫu AI

Năm ngoái, một chủ đề nóng hổi trong giới công nghệ là sự xuất hiện của các influencer do AI tạo ra. Nhiều công ty đã xây dựng những “người mẫu Instagram AI” có ngoại hình giống hệt người thật và đăng tải nội dung trên Instagram. Những người mẫu này trông hoàn toàn chân thực, nhưng thực tế lại không tồn tại trong thế giới thực. Thậm chí, nhiều người còn cho rằng đằng sau những AI model này là những kỹ sư prompt (prompt engineer) nam giới, điều khiển tất cả các mô hình AI thay vì một cô gái thực sự.

Một số tài khoản
AI model rõ ràng là giả mạo và được tạo ra bởi AI, nhưng vẫn thu hút được hàng chục, thậm chí hàng trăm nghìn người theo dõi trên Twitter. Rõ ràng, chúng đang tạo ra một nguồn doanh thu nhất định. Mặc dù nhiều người không hiểu tại sao lại muốn theo dõi một người mà họ biết là không có thật, nhưng nhu cầu này là có thật.

Ứng Dụng Thực Tế Của AI Model

Điều này đặt ra câu hỏi: AI model có thể mang lại giá trị kinh doanh thực tế nào? Gần đây, anh rể của tôi, người đang điều hành một doanh nghiệp nhỏ ở Trung Quốc chuyên bán quần áo trực tuyến, đã hỏi tôi liệu tôi có thể sử dụng AI để tạo ra 20-30 bài đăng trên mạng xã hội mỗi ngày, với hình ảnh người mặc quần áo của anh ấy hay không. Ban đầu, tôi thấy yêu cầu này khá kỳ lạ. Tại sao cần nhiều bài đăng mới mỗi ngày đến vậy?

Anh ấy giải thích rằng ở Trung Quốc, những người mua hàng trực tuyến thường tìm kiếm trên các nền tảng mạng xã hội như Red Book để xem đánh giá và hình ảnh của những người đã mua sản phẩm tương tự. Nếu ai đó tìm kiếm quần áo mà anh ấy đang bán, thì việc thấy nhiều người khác đã mua và đánh giá tốt sẽ giúp khách hàng tin tưởng hơn vào chất lượng sản phẩm. Tôi không chắc liệu chiến lược này có hiệu quả hay không, và tôi cũng không thích ý tưởng sử dụng AI để tạo ra các bài đăng trên mạng xã hội. Tuy nhiên, tôi tin rằng AI model có thể mang lại giá trị lớn cho ngành thời trang, đặc biệt là trong việc giúp mọi người hình dung quần áo sẽ trông như thế nào trên cơ thể họ, tốt hơn nhiều so với một hình ảnh tĩnh.

Ứng dụng AI trong thời trang

Các trang thương mại điện tử có thể tạo ra một lượng lớn hình ảnh sản phẩm cho nhiều loại khách hàng khác nhau. Đó là lý do tại sao trong vài ngày qua, tôi đã nghiên cứu về tạo ảnh bằng AI và xây dựng một “agent” có thể kết hợp các khuôn mặt, quần áo và thậm chí cả tư thế và môi trường khác nhau để tạo ra các bài đăng phổ biến trên mạng xã hội cho các thương hiệu thời trang. Tôi sẽ chia sẻ cách thực hiện, bởi vì tạo ảnh bằng AI thực sự rất thú vị.

Tìm Hiểu Về Tạo Ảnh Bằng AI

Trước khi đi sâu vào triển khai, có lẽ sẽ hữu ích nếu hiểu cách thức hoạt động của tạo ảnh bằng AI và làm thế nào để kiểm soát quá trình này tốt hơn. Để tạo ảnh bằng AI, chúng ta thường sử dụng các mô hình như Stable Diffusion hoặc DALL-E. Các mô hình này có khả năng biến một hình ảnh tĩnh nhiễu (noise) thành một hình ảnh có độ chân thực cao mà chúng ta mong muốn. Vậy, chúng hoạt động như thế nào?

Cách thức hoạt động thực sự khá thông minh và thú vị. Mặc dù việc biến một hình ảnh nhiễu ngẫu nhiên thành một hình ảnh chất lượng cao trong một bước duy nhất là rất khó, nhưng khi chia nhỏ thành các tác vụ nhỏ hơn, nó trở nên dễ quản lý hơn nhiều. Nếu bạn muốn giảm nhiễu cho hình ảnh này một chút và đưa nó đến trạng thái tiếp theo, tất cả những gì chúng ta cần làm là huấn luyện một mô hình AI có khả năng xác định lượng nhiễu cần loại bỏ giữa các hình ảnh. Sau đó, nó có thể chia nhỏ tác vụ lớn này thành các tác vụ nhỏ hơn và hoàn thành chúng một cách lặp đi lặp lại.

Để huấn luyện một mô hình AI như vậy, chúng ta cần một lượng lớn dữ liệu hình ảnh. Với mỗi hình ảnh, chúng ta cần thêm nhiều mức nhiễu khác nhau dựa trên một lịch trình. Sau đó, chúng ta có thể sử dụng dữ liệu này để huấn luyện mô hình AI giảm nhiễu theo hướng ngược lại. Chúng ta có thể cung cấp cho mô hình AI này một hình ảnh nhiễu ngẫu nhiên như thế này và nói rằng đây là một hình ảnh đầy đủ nhiễu của một chú mèo dễ thương. Bây giờ, chúng ta không yêu cầu nó tạo ra hình ảnh gốc, mà hãy thử tìm ra lượng nhiễu cần loại bỏ để có được, chẳng hạn, năm khung hình tiếp theo của hình ảnh chú mèo ít nhiễu hơn này. Mô hình sẽ có thể đoán được lượng nhiễu cần loại bỏ và loại bỏ nhiễu đó, và bạn sẽ nhận được một cái gì đó như thế này, vẫn còn rất nhiều nhiễu và không rõ ràng đó là gì, và rất có thể không hoàn hảo. Nhưng điều chúng ta sẽ làm tiếp theo là chúng ta sẽ thêm một chút nhiễu vào hình ảnh mới này và đưa nó trở lại để thực hiện quy trình này một lần nữa. Lần này, chúng ta nói với mô hình rằng đây là hình ảnh ở thời điểm T trừ 1, bây giờ hãy thử đoán xem lượng nhiễu chúng ta nên giảm để đến được T cộng 6, và nó sẽ nhận được một hình ảnh mới, vẫn không hoàn hảo, nhưng có lẽ gần hơn một chút so với trước đây. Và nó sẽ lặp lại quá trình này nhiều lần cho đến khi chúng ta có được một hình ảnh có độ trung thực cao. Và đây, về bản chất, là cách mô hình khuếch tán hoạt động. Nó về cơ bản là một quá trình giảm nhiễu hình ảnh.

XEM THÊM:  Việt Nam cần làm gì để hạn chế email lừa đảo?

Nhưng bạn có thể có một câu hỏi, làm thế nào mô hình AI biết “chú mèo dễ thương” có nghĩa là gì? Bởi vì hai hình ảnh này về cơ bản chỉ là một loạt các pixel đối với mô hình AI. Điều này được thực hiện thông qua một quy trình gọi là tokenization. Về cơ bản, đối với mỗi hình ảnh trong tập dữ liệu huấn luyện, chúng ta sẽ cung cấp một số chú thích và mô tả về hình ảnh đó, ví dụ như hình ảnh bên trái là một con vật, mèo, dễ thương và có đôi mắt màu nâu, so với hình ảnh bên phải là nam, già và có đôi mắt màu xanh. Mỗi chú thích này gần giống như một cách đo lường và phân loại hình ảnh, mà chúng ta có thể sử dụng để hiểu mối quan hệ giữa hình ảnh cũng như văn bản. Mỗi dữ liệu hình ảnh có thể được vẽ trên một không gian như thế này. Vì vậy, lần tới khi chúng ta có một prompt văn bản như “một chú mèo dễ thương”, chúng ta sẽ biết hình ảnh cuối cùng nằm ở đâu trong không gian tiềm ẩn này và sử dụng nó như một tín hiệu để mô hình AI hiểu liệu chúng ta có đang tạo ra hình ảnh đúng hướng hay không. Tuy nhiên, nó không phải là một phép đo 2×2 đơn giản, mà có hàng ngàn kích thước khác nhau, cuối cùng tạo ra một không gian tiềm ẩn thực sự phức tạp, có thể kết nối các hình ảnh và văn bản khác nhau với nhau về mối quan hệ ngữ nghĩa. Điều này đòi hỏi một lượng lớn dữ liệu huấn luyện, nhưng may mắn thay, đã có các mô hình nguồn mở mà chúng ta có thể sử dụng. Mô hình phổ biến nhất là mô hình CLIP của OpenAI. Với mô hình này, khi người dùng đưa ra một prompt văn bản như “chú mèo dễ thương”, nó sẽ tự động chuyển đổi văn bản này thành một vị trí cụ thể trong không gian tiềm ẩn này, để chúng ta sẽ biết hình ảnh cuối cùng nằm ở đâu về mặt không gian tiềm ẩn này, và chúng ta sẽ sử dụng điều này như một tín hiệu khi mô hình AI đang cố gắng giảm nhiễu hình ảnh để đảm bảo rằng nó đang tạo ra hình ảnh đúng hướng.

Tôi biết tôi đã nói rất nhiều khái niệm cho đến nay, hãy thử tạo một hình ảnh với các mô hình AI này. Để làm điều đó, chúng ta sẽ sử dụng ComfyUI. ComfyUI là một dự án nguồn mở cho phép bạn xây dựng các pipeline tạo ảnh rất phức tạp và linh hoạt, vì vậy bạn có thể chạy tất cả các loại mô hình tạo ảnh khác nhau trực tiếp trên máy tính của mình, và điều tuyệt vời nhất là bạn sẽ có thể xuất quy trình làm việc vào định dạng JSON và lưu trữ quy trình làm việc tạo ảnh đó ở đâu đó, để bạn có thể tạo cùng một hình ảnh vào lần sau. Thậm chí còn có các dịch vụ lưu trữ như Replicate cho phép bạn chỉ cần sao chép và dán toàn bộ quy trình làm việc và bắt đầu tạo ảnh trên GPU mạnh mẽ của họ.

Thử Quần Áo Ảo Với ComfyUI

ComfyUI là một công cụ mạnh mẽ để tạo ra các hình ảnh tùy chỉnh bằng AI. Nó cho phép người dùng xây dựng các quy trình làm việc phức tạp và linh hoạt, điều này đặc biệt hữu ích cho việc thử quần áo ảo. Với ComfyUI, bạn có thể tải lên hình ảnh của một người mẫu, hình ảnh của quần áo và sau đó sử dụng AI để “mặc” quần áo lên người mẫu.

Các Bước Cơ Bản

Để bắt đầu với ComfyUI, bạn cần tải xuống và cài đặt nó trên máy tính của mình. Nếu bạn đang sử dụng Windows, bạn có thể tải xuống từ Comfy Hub. Nếu bạn đang sử dụng Mac, bạn cần sao chép kho lưu trữ và cài đặt thủ công theo hướng dẫn. Sau khi cài đặt xong, bạn có thể mở thư mục và tìm hai tập lệnh: một cho CPU và một cho GPU. Nếu bạn có GPU Nvidia, bạn có thể nhấp đúp vào tập lệnh GPU. Nếu không, bạn có thể sử dụng CPU.

Sau khi khởi động ComfyUI, bạn sẽ thấy một giao diện người dùng. Theo mặc định, nó sử dụng mô hình v1.5, là mô hình Stable Diffusion v1.5. Bạn có thể tải xuống mô hình này từ Hugging Face và đặt nó vào thư mục “checkpoints” trong thư mục ComfyUI. Sau đó, bạn có thể kết nối mọi thứ lại với nhau, bao gồm cả các prompt văn bản dương tính và âm tính, và thêm một K Sampler. K Sampler được sử dụng để tạo ra hình ảnh thực tế trong không gian tiềm ẩn. Chúng ta sẽ sử dụng VA Decode để biến không gian tiềm ẩn thành hình ảnh thực tế.

Hãy thử một prompt văn bản: “một người phụ nữ mặc áo khoác màu xanh lam”. Sau đó, nhấp vào “Q prompt”. Bạn sẽ thấy một hình ảnh được tạo ra. Nhưng làm thế nào để tạo ra hình ảnh với khuôn mặt, quần áo và môi trường cụ thể mà chúng ta muốn? Để đạt được điều đó, có một vài cách.

XEM THÊM:  Adobe Firefly AI: Tạo Video An Toàn Bản Quyền, Dễ Dàng

Tích Hợp Các Yếu Tố Mới Vào Ảnh

Một cách dễ dàng là tích hợp các yếu tố mới, như quần áo, vào ảnh hiện có. Điều này hữu ích nếu bạn đã có một số hình ảnh người mẫu tốt mà bạn muốn sử dụng, nhưng bạn chỉ muốn thay đổi quần áo thành quần áo của riêng bạn. Có một vài mô hình khá hoàn thiện mà bạn có thể sử dụng ngay lập tức. Một trong số đó là mô hình được tạo bởi Alibaba, được gọi là An Door. Nó cho phép bạn tích hợp một vật phẩm mới vào ảnh hiện có. Bạn có thể tải lên ảnh hiện có, che (mask) đối tượng bạn muốn thay đổi và sau đó nó sẽ tạo ra một hình ảnh mới thay thế đối tượng ban đầu bằng đối tượng mới.

Tương tự, bạn có thể tải lên hình ảnh của một người mẫu, cũng như quần áo mới. Bạn có thể che vùng quần áo trong ảnh gốc và nó sẽ tạo ra một hình ảnh mới với cùng một người mẫu, nhưng mặc quần áo khác. Mặt khác, bạn cũng có thể sử dụng các mô hình như OOTDiffusion, một mô hình được thiết kế đặc biệt cho việc thử quần áo thời trang. Mô hình này có sẵn trên các nền tảng như Replicate, có nghĩa là bạn có thể gọi API của nó. Cách thức hoạt động là bạn tải lên hình ảnh của bất kỳ bộ quần áo nào bạn muốn người mẫu thử và nó sẽ có thể tạo ra một hình ảnh mới với bộ quần áo mới này.

Mô hình OOTDiffusion

Ví dụ: bạn có thể tải lên một hình ảnh không có thiết lập nền trắng và sau đó tải lên một hình ảnh quần áo ngẫu nhiên. Sau đó, nó sẽ tạo ra một hình ảnh mới về chàng trai thời trang này mặc một loại đồng phục an ninh, trông khá hài hước. Bạn có thể xây dựng một ứng dụng thú vị, nơi người dùng có thể chụp ảnh bản thân, tải nó lên, chọn bất kỳ bộ quần áo nào và sau đó bạn có thể gọi API này trên Replicate để tải lên cả ảnh của khách hàng và ảnh của quần áo để trộn chúng lại với nhau. Nó sẽ khá dễ sử dụng. Vì vậy, trong trường hợp bạn đã có một bức ảnh và bạn chỉ muốn đổi quần áo, tôi chắc chắn khuyên bạn nên sử dụng OOTDiffusion. Tôi đã đặt liên kết trong phần mô tả bên dưới để bạn có thể xem.

Tạo AI Model Tùy Chỉnh Hoàn Toàn

Trong trường hợp của chúng ta, tôi muốn tạo một AI model tùy chỉnh hoàn toàn, nơi tôi có thể tạo ra khuôn mặt của AI model từ đầu và cho nó mặc bất kỳ bộ quần áo nào, thậm chí cho nó một môi trường nhất định, để nó có thể tạo ra một bức ảnh rất độc đáo có thể được sử dụng cho các bài đăng trên mạng xã hội. Để làm điều đó, có một vài cách. Một là bạn có thể tinh chỉnh mô hình của riêng mình. Bạn có thể thu thập nhiều ảnh của cùng một người, tinh chỉnh mô hình với dữ liệu đó, vì vậy lần tới khi bạn nhận được một prompt, nó sẽ có thể tạo ra cùng một khuôn mặt. Nhờ các kỹ thuật như LoRA, chi phí tinh chỉnh đã giảm rất nhiều, nhưng bạn vẫn cần một lượng lớn dữ liệu huấn luyện để có thể thực hiện tinh chỉnh này. Mặt khác, có một phương pháp khác được phát triển bởi Tencent, được gọi là IP Adapter. Đây là một giải pháp cực kỳ nhẹ để bạn chèn một số yếu tố nhất định từ một ảnh tham khảo vào mô hình tạo ảnh. Phần tốt của việc sử dụng phương pháp này là nó không yêu cầu một lượng lớn dữ liệu huấn luyện. Tất cả những gì bạn cần chỉ là một bức ảnh để có thể tạo ra một bức ảnh mới dựa trên một khuôn mặt cụ thể.

Cách thức hoạt động là bạn có thể cung cấp cho nó một bức ảnh khuôn mặt của một người hoặc một bộ quần áo cụ thể. Sau đó, chúng ta có thể mã hóa hình ảnh này và trộn nó với prompt văn bản bạn đưa ra và sử dụng chúng làm prompt cuối cùng mà chúng ta sẽ gửi đến mô hình tạo ảnh. Nếu bạn muốn tạo ảnh với khuôn mặt và quần áo cụ thể, chúng ta có thể chỉ cần thay đổi hai IP Adapter cùng nhau, điều này sẽ tạo ra hình ảnh cuối cùng có cả hai yếu tố được xem xét. Bạn có thể xây dựng toàn bộ pipeline tạo ảnh với IP Adapter trong ComfyUI và tôi sẽ chỉ cho bạn cách bạn có thể làm điều đó.

Xây Dựng Pipeline Tạo Ảnh Với IP Adapter Trong ComfyUI

Trước khi bắt đầu, chúng ta cần cài đặt một thứ gọi là ComfyUI Manager. Điều này cho phép bạn cài đặt và quản lý các node tùy chỉnh và các chức năng bổ sung. Bạn có thể vào thư mục ComfyUI, nhấp chuột phải và mở trong terminal. Sau đó, chúng ta sẽ CD vào ComfyUI và sau đó sao chép kho lưu trữ này. Vậy là xong. Bạn có thể khởi động lại ComfyUI, sau đó sẽ có một nút mới có tên là Manager. Nhấp vào nút đó sẽ hiển thị nút UI mới này có tên là Install Custom. Bạn chỉ cần tìm kiếm bất kỳ node nào bạn muốn sử dụng. Đầu tiên, chúng ta cần cài đặt một vài node CMA, vì vậy tôi nhấp vào nút này và trước tiên hãy tìm kiếm IP Adapter. Chúng ta có thể cài đặt id91. Điều này sẽ cung cấp cho bạn các node IP Adapter. Tiếp theo, chúng ta sẽ tìm kiếm Impact và chúng ta sẽ cần cài đặt số hai, nó sẽ cung cấp cho bạn một vài node tùy chỉnh khác nhau mà bạn có thể sử dụng cho IP Adapter. Sau đó, chúng ta sẽ tìm kiếm Control và số sáu là node mà chúng ta sẽ sử dụng. Điều này sẽ cung cấp cho chúng ta các node mới cho ControlNet, là những thứ mà chúng ta có thể sử dụng để kiểm soát bổ sung, chẳng hạn như kiểm soát tư thế của AI Model. Sau đó, chúng ta cũng cần cài đặt mô hình. Một mô hình chúng ta sẽ sử dụng là CLIP Vision. Nếu bạn tìm kiếm CLIP Vision, đây là mô hình chúng ta sẽ sử dụng, được gọi là CLIP Vit-L-14 B/32. Đây là mô hình cơ bản mà chúng ta sẽ sử dụng để mã hóa một hình ảnh, để chúng ta có thể sử dụng nó làm tín hiệu bổ sung khi AI Model tạo hình ảnh, để chúng ta có thể biến một hình ảnh nhất định, như khuôn mặt hoặc quần áo, thành token có thể được sử dụng khi tạo hình ảnh. Vậy là xong cho các node tùy chỉnh.

XEM THÊM:  2 phụ nữ bị lừa hàng tỷ đồng vì tham gia giật đơn hàng ảo, cảnh báo 3 thủ đoạn lừa đảo qua sàn thương mại điện tử mà chị em cần lưu ý

Để chạy cái này, chúng ta cũng cần tải xuống mô hình IP Adapter. Bạn có thể vào Hugging Face, nơi tôi đã đăng một liên kết trong phần mô tả bên dưới cho IP Adapter Face ID. Tùy thuộc vào mô hình bạn đang sử dụng. Nếu bạn đang sử dụng mô hình Stable Diffusion 1.5, thì bạn có thể tải xuống hai tệp này. Nhưng nếu bạn đang sử dụng Stable Diffusion XL, mà tôi đang sử dụng, thì bạn có thể tải xuống hai tệp này. Mặt khác, cũng có một liên kết thứ hai có hai thư mục này bên dưới thư mục Models là nơi bạn cần lấy mọi thứ bạn cần nếu bạn đang sử dụng mô hình Stable Diffusion 1.5. Một lần nữa, trong trường hợp của tôi, tôi đang sử dụng các mô hình Stable Diffusion XL, vì vậy tôi nhấp vào bên trong mô hình này và chúng ta cần tải xuống hai tệp. Một là IP-Adapter-FaceID-plus_sdxl_vit-h.safetensors, hai là IP-Adapter-plus_sdxl_vit-h.safetensors. Vậy là gần như tất cả các mô hình thiết yếu mà chúng ta sẽ sử dụng.

Sau khi tải xuống, bạn có thể mở thư mục ComfyUI và vào thư mục Models. Bên trong đây là nơi bạn sẽ đặt tất cả các mô hình khác nhau cho các mục đích khác nhau. Trước tiên, tôi tìm kiếm thư mục LoRA và đặt tệp IP Adapter Face ID vào LoRA_SDXL. Về cơ bản, đặt tệp có tên LoRA vào thư mục này. Phần còn lại bạn cần đặt nó vào thư mục IP Adapter, và nếu bạn không có thư mục này, bạn có thể chỉ cần tạo thư mục này và đặt phần còn lại của tệp ở đây. Bước cuối cùng, nếu bạn vừa tạo thư mục IP Adapter, bạn cần mở tệp extra_model_paths.yaml và sau đó thêm thư mục IP Adapter vào đây. Vậy là xong. Chúng ta có thể bắt đầu xây dựng và bước cuối cùng là chúng ta thực sự muốn tải xuống một số mô hình Stable Diffusion được tinh chỉnh để tạo ra khuôn mặt người, ví dụ, hoặc hình ảnh chân thực hơn. Mô hình tôi sẽ sử dụng là Realism Engine SDXL, là một mô hình cụ thể được tinh chỉnh để tạo hình ảnh chân thực. Bạn có thể tải xuống mô hình này miễn phí trên Civitai. Trên trang web này có rất nhiều mô hình khác nhau, vì vậy bạn có thể tìm thấy một mô hình khác phù hợp hơn với nhu cầu của bạn. Nhưng cho mục đích minh họa cụ thể, tôi sẽ sử dụng mô hình này. Sau khi bạn tải xuống mô hình này, bạn sẽ đặt mô hình đó vào một trong các thư mục trong thư mục Models, đó là Checkpoints và đây là nơi tôi đặt RealismEngineSDXL. Vậy là xong. Chúng ta có thể bắt đầu xây dựng AI Model của riêng mình.

Nếu tôi quay lại ComfyUI, tôi có thể nhấp đúp và thêm một Checkpoint. Tôi có thể chọn mô hình tôi đang sử dụng, là RealismEngineSDXL. Sau đó, tôi sẽ thêm CLIP cho prompt dương tính và kết nối CLIP lại với nhau. Tôi cũng sẽ tìm kiếm KSampler và kết nối các prompt khác nhau lại với nhau, cũng như mô hình. Tôi sẽ thêm một Empty Latent Image để định cấu hình kích thước của hình ảnh. Vì tôi đang sử dụng mô hình SDXL, tôi sẽ thay đổi chiều rộng và chiều cao thành 1024. Nhưng nếu bạn đang sử dụng mô hình 1.5, bạn có thể giữ nó ở 512. Kết nối Latent với Latent Image. Sau đó, tôi sẽ cần thêm một node mới có tên là VAEDecode. Điều này sẽ giải mã Latent mà chúng ta đã tạo thành hình ảnh thực tế và chúng ta có thể xem trước hình ảnh. Tôi cũng sẽ thay đổi một số cấu hình ở đây, tôi sẽ tăng Stab lên 35. Nói chung, bạn càng có nhiều Stab, thì AI Model càng có nhiều thời gian để tạo ra mọi thứ, do đó chất lượng sẽ tốt hơn. Tôi sẽ thay đổi Sampler Name thành DPM++ 2M Karras, cũng như Scheduler thành Karras. Sampler Name và Scheduler về cơ bản là một số cấu hình bổ sung để bạn kiểm soát quá trình khử nhiễu trông như thế nào. Ví dụ: nó có nên chỉ thêm cùng một lượng nhiễu mỗi lần hay nó nên cố gắng khử nhiễu một bước rất lặp đi lặp lại ở

Bạn có thấy hữu ích không? Hãy cho chúng tôi +1 nhé

Đăng ký nhận bản tin từ Website TXL

Tìm kiếm tức thì các thông tin tại website: tranxuanloc.com

Mẹo tìm kiếm: "Từ khóa cần tìm kiếm" site:tranxuanloc.com để tìm được kết quả chính xác trên công cụ tìm kiếm của google

Trần Xuân Lộc Blog cung cấp dịch vụ

TOP ĐỐI TÁC CUNG CẤP DỊCH VỤ DU LỊCH TRỰC TUYẾN HÀNG ĐẦU

(Đặt phòng, đặt tour, đặt xe, đặt vé máy bay...Nhấn vào link logo để đặt dịch vụ với nhiều ưu đãi hấp dẫn)

Cảnh báo: Hiện nay có rất nhiều đơn vị SỬ DỤNG LẠI các THÔNG TIN NỘI DUNG ĐÀO TẠO của KHÓA HỌC SALE OTA TỪ OTAVN mà không đảm bảo chất lượng và hỗ trợ về sau. Các bạn muốn đăng ký học SALE OTA uy tín hãy liên hệ trực tiếp với OTA Việt Nam. OTAVN có xây dựng các hình thức đào tạo trực tiếp offline cho doanh nghiệp, đào tạo 1-1 từ xa và tự học online. Chúng tôi có 2 tên miền là: otavietnam.com và tranxuanloc.com (founder) có chia sẻ và đăng tải các thông tin liên quan về OTA/ Sale OTA/ Digital Marketing/ Thiết kế website... Với khách hàng/ đối tác đã sử dụng dịch vụ của OTAVN sẽ được HỖ TRỢ MIỄN PHÍ các vấn đề phát sinh, tư vấn giải đáp sau khi đã hoàn thành khóa học hoặc sau khi đã sử dụng dịch vụ trọn đời. Hotline:0934552325 (iMessage/ Zalo/ Whatsapp) - Email: [email protected]