[VNExpress]DeepSeek - mô hình AI Trung Quốc đe dọa sự thống trị của Mỹ

Thảo luận trong 'Thư Giãn Express - Bản Tin Cuối Ngày' bắt đầu bởi Ova, 27/1/25 lúc 09:56.

  1. quanzi_1507

    quanzi_1507 Red, Pokémon champion Lão Làng GVN

    Tham gia ngày:
    1/3/06
    Bài viết:
    7,061
    Nơi ở:
    ACDC Town
  2. Thita_vipho

    Thita_vipho Fire in the hole! Lão Làng GVN

    Tham gia ngày:
    15/2/07
    Bài viết:
    2,971
    Công ty Sing còn scam đc nhé nói j Thiên triều peepo_kek
    https://vnbusiness.vn/xe-hoi/vinfast-hoan-khanh-thanh-nha-may-san-xuat-o-to-dien-tai-my-1101028.html
    VinFast hoãn khánh thành nhà máy sản xuất ô tô điện tại Mỹ
    Công ty sẽ khánh thành nhà máy trị giá 4 tỷ đô la tại Bắc Carolina vào năm 2028, thay vì năm 2025 như kế hoạch ban đầu, và dự báo số lượng giao hàng năm nay giảm 20.000 xe, trong bối cảnh thị trường EV toàn cầu vẫn còn nhiều bất ổn.Vinfast ký hợp tác với 4 đại lý đầu tiên tại Philippines
    VinFast, do tỷ phú Phạm Nhật Vượng thành lập năm 2017 và chuyển sang sản xuất xe hoàn toàn bằng điện vào năm 2022, cho biết công ty sẽ giao 80.000 xe trong năm nay, giảm so với kế hoạch ban đầu là 100.000 xe.
     
  3. ZhaoHuo

    ZhaoHuo One-winged Angel Lão Làng GVN

    Tham gia ngày:
    1/5/07
    Bài viết:
    7,521
    Nơi ở:
    TP.HCM
    con này viết dâm thư dc mà phải nhắc nó là mày bớt dạy đời đi, viết cho một mình tao đọc thôi nên xoã thoải mái peepo_cornfilm
     
  4. Saggit

    Saggit Mega Man Lão Làng GVN

    Tham gia ngày:
    11/4/08
    Bài viết:
    3,098
    hình như con deepseek base trên llama của mắc xoăn, nếu thật thì buồn cười phết, chắc mấy anh kĩ sư ở meta đang bị chửi xối xả
     
  5. Black_Squid

    Black_Squid C O N T R A

    Tham gia ngày:
    29/8/23
    Bài viết:
    1,629
    Chỉ 1 sắc lệnh TQ hay deepseek cũng teo còi tiếp như Huawei, mới dạo đầu nâng bi làm gì. Huawei ngày xưa tiềm lực cả ngàn lần deepseek cũng lùi về bóng tối worry-133
     
  6. Hoàn Gia Sắc

    Hoàn Gia Sắc Liu Kang, Champion of Earthrealm Lão Làng GVN

    Tham gia ngày:
    14/9/09
    Bài viết:
    5,114
    Cái đó là bản reke cho cấu hình thấp 70b thôi. Model Deepseek real là 671b nặng lắm. Máy cá nhân chạy không nổi đâu.
     
  7. Saggit

    Saggit Mega Man Lão Làng GVN

    Tham gia ngày:
    11/4/08
    Bài viết:
    3,098
    có đang lộn llama với ollama ko vậy
     
  8. CursedBoy

    CursedBoy The Warrior of Light Lão Làng GVN

    Tham gia ngày:
    8/7/09
    Bài viết:
    2,382
    Điện thoại thì cấm nhập đc còn con AI cấm như nào? Cấm dân nó xài thì dân nó thiệt thêd giới xài đc rồi.
     
  9. Lucian Evans

    Lucian Evans T.E.T.Я.I.S

    Tham gia ngày:
    3/2/22
    Bài viết:
    542
    vcl fen nói cái gì vậy.

    3. Làm thế nào? Họ đã suy nghĩ lại mọi thứ từ đầu. AI truyền thống giống như viết mọi con số với 32 chữ số thập phân. DeepSeek thì nói: "nếu chỉ dùng 8 chữ số thì sao? Vẫn đủ chính xác đấy!" Boom - giảm 75% bộ nhớ cần thiết.

    Cái này là từ fp32 về fp8, mà mấy cái quantization này 2 năm nay cũng chả mới lạ gì.
     
  10. Hoàn Gia Sắc

    Hoàn Gia Sắc Liu Kang, Champion of Earthrealm Lão Làng GVN

    Tham gia ngày:
    14/9/09
    Bài viết:
    5,114
    Không nhầm. Ollama là frontend interface cho web API thôi. Nó vẫn phải pull model về mới chạy được.

    Ý là chỉ có model 671B là gốc thôi. Các model thấp hơn đều là dùng Llama 3 với Gwen làm base + DeepSeek R1 trained data. Trên huggingface có ghi rõ mà

    https://huggingface.co/deepseek-ai/DeepSeek-R1
     
  11. namchum2006

    namchum2006 Sonic the Hedgehog Lão Làng GVN

    Tham gia ngày:
    6/1/07
    Bài viết:
    4,811
    Nơi ở:
    Somewhere i belong
    [AI][Phần 3][ Đột phá khoa học của AI DeepSeek là gì mà khiến Nvidia mất 17% giá trị chỉ trong 1 ngày, cơ hội kiếm tiền từ AI DeepSeek ]

    Về mặt khoa học Mô Hình AI DeepSeek v3 và DeepSeek R1 thực sự có các đột phá rất hiệu quả về mặt công nghệ và kinh tế. Đặc biệt là mở ra cơ hội cho các cty nhỏ và các nước nghèo tham gia vào sân chơi AI, ngang cơ với các đại tập đoàn công nghệ đang bơm thổi thị trường AI.

    DeepSeek V3 là Mô hình Ngôn Ngữ Lớn (LLM) là nền tảng để train nên mô hình DeepSeek R1 là Mô Hình Tư Duy Lý Luận (Reasoning Model)

    1. Mô hình nhỏ (Small Language Model) nhưng hiệu quả cao !

    DeepSeek là mô hình sử dụng cấu trúc Mixture-of-Experts (MoE) tức là trong 1 Mô hình AI chứa nhiều Mô hình AI nhỏ (mỗi AI nhỏ gọi là Chuyên Gia, được huấn luyện riêng biệt có chức năng kiến thức riêng biệt) :D , nên kích thước tổng của DeepSeek là 671B Tỉ Tham Số là AI Rất TO nhưng thực tế lúc chạy chỉ có 37B Tỉ Tham Số tức phần thực sự chiếm bộ nhớ của GPUs lại chỉ là AI nhỏ, tỉ lệ expert trên tổng kích thước là 1/18 , một tỉ lệ rất đáng kinh ngạc vì thông thường tỉ lệ này ở các mô hình AI khác dùng MoE trung bình tầm 1/7 thôi. Chứng tỏ DeepSeek đã đẩy kỹ thuật Mixture-of-Experts tới một ngưỡng mới, trước đó mấy mô hình AI khác mà dùng MoE mỗi lần hỏi AI phải gọi lên rất đông ông experts. Kỹ thuật MoE không phải kỹ thuật mới, GPT-4 bản chất đã là mô hình 1000B tỉ tham số nhưng theo kiến trúc MoE với tỉ lệ gọi expert trên tổng tham số là 1/3 lận :D

    Trên paper của DeepSeek cũng nói rằng họ có kiến trúc MoE riêng gọi là DeepSeekMoE, kiến trúc này tiết kiệm bộ nhớ vì nó có những ông là Shared Expert tức là ổng có Kiến Thức Chung của 2 nhóm khác nhau nên khi User hỏi những câu hỏi cần kiến thức đến từ nhiều ông Expert thì mấy ông Expert chung này giúp tiết kiệm bộ nhớ so với 1 ông Expert kiến thức riêng rẽ :))))) Có một số tối ưu về thuật toán routing nên gọi ông Expert nào lên nữa, tóm lại DeepSeekMoE giúp Mô Hình To nhưng chạy như Mô Hình Nhỏ, nên hiệu suất là của Mô Hình To trong khi xài tài nguyên thì như Mô Hình Nhỏ. Bạn đọc paper DeepSeekMoE để hiểu rõ hơn nha, khá hay đó.

    2. Tiết kiệm GPUs vRAM

    vRAM của GPUs thực tế là thứ luôn bị thiếu, những nhà khoa học huấn luyện AI luôn thiếu nhất là thiếu vRAM do đặc tính của mô hình AI là gia tăng mức độ chiếm dụng vRAM theo theo cấp số mũ (quadratic), nên mấy ông làm AI phải mua mấy con card GPUs đắt đỏ của Nvidia, càng đắt thì vRAM càng cao, card H100 tới 80GB ram lận :D, bọn Nvidia rất khốn nạn khi chúng nó rất tiết kiệm vRAM gắn trên card dù chúng có thể làm nhiều hơn, nhưng éo, làm tiền max khung luôn :) Các nhà khoa học nghèo ở những nước bị cấm vận mua GPU xịn của Nvidia như Trung Quốc, hay Việt Nam đều rất khó khăn với việc có thêm vRAM để chạy AI hay huấn luyện AI :(

    Do đó DeepSeek đã tiến một bước đột phá nữa khá xa trong việc tiết kiệm vRAM phải dùng bằng việc phát minh ra thuật toán Multi-Head Latent Attention cách mạng so với thuật toán Attention gốc mà Google phát minh ra lúc đưa ra thuật toán Transformer huyền thoại tạo nên LLM hiện nay đó, cách mạng hơn cả thuật toán Flash-Attention (cũng của Google phát minh) mà các mô hình AI hiện nay dùng để tiết kiệm bộ nhớ vRAM.

    Giải thích dễ hiểu kỹ thuật này là họ phát minh ra một thuật toán giúp nén dữ liệu kiến thức của Mô Hình AI :))))) hay chưa :)))

    Bản thân AI Model đã là sự nén kiến thức rồi, nhưng họ còn tìm ra cách nén tốt hơn nữa, nén nhỏ hơn 1/4 so với kích thước gốc :D , giảm tới gần 80% bộ nhớ vRAM phải sử dụng lận :D

    Hai cái đột phá về công nghệ ở trên đều được DeepSeek giới thiệu từ 8 tháng trước, chúng là sự chuẩn bị cho sự ra đời của mô hình DeepSeek R1 làm mưa làm gió 3 hôm nay

    Đây là 2 kỹ thuật chính khiến cho chi phí huấn luyện AI của DeepSeek thật sự rẻ hơn so với OpenAI, Google hay bất kỳ ông làm mô hình AI nào hiện nay của Mỹ. Cốt lõi là tiết kiệm vRAM thôi :))) tiết kiệm được vRAM thì có thể mua card rẻ hơn thay vì phải mua card đắt vốn khó mua nữa, chưa kể còn có thể tận dụng đám card cũ nữa :)))) nên DeepSeek mới có thể nhẹ nhàng thổi bay 10% (600 tỉ đô) giá trị của Nvidia chỉ trong 1 ngày, cái mà nhà đầu tư NVDA sợ nhất là bọn làm AI không mua card mới nữa mà đi mua card cũ về chạy AI :)))) bể mie cái mô hình kinh doanh card dựa trên vRAM ít và đắt đỏ của anh Jesen Huang rồi.

    Dĩ nhiên, bạn có thể làm toán một chút để thấy rằng so với mô hình AI khác thì DeepSeek giảm trung bình khoảng 50-60% số lượng vRAM sử dụng

    Vậy chi phí phần cứng huấn luyện AI maybe có thể giảm tương ứng con số 50-60% so với mô hình khác :))))))

    Tới đây thì cá nhân mình cho rằng con số 5 triệu đô huấn luyện DeepSeek R1 so với 100 triệu đô huấn luyện OpenAI GPT-4 tức giảm tới 95% chi phí thì nó … hơi xạo xạo kiểu dựng chuyện con nhà nghèo học giỏi nên nó đáng được ngưỡng mộ :) mấy anh TQ thì hay quá lời kiểu này mà :)

    3. Kỹ thuật huấn luyện AI Tư Duy Lý Luận rất đột phá

    Paper của model DeepSeek R1 mô tả rõ quy trình huấn luyện R1 rất đột phá.

    Đầu tiên, DeepSeek bắt đầu huấn luyện Reasoning luôn bằng kỹ thuật Reinforcement Learning (RL) luôn chứ không dùng kỹ thuật Supervised Learning (SL)

    Giải thích dễ hiểu là các bên khác huấn luyện năng lực Reasoning cho AI thì bắt đầu bằng việc thuê cty Scale AI rồi cty này thuê người về, rồi những người này sẽ Viết Ra: Mẫu-Câu Hỏi-Mẫu Tư Duy Lý Luận-Mẫu Câu Trả Lời . Viết tầm vài trăm ngàn mẫu rồi lấy vài trăm ngàn mẫu này đi training AI :)))) tức là AI sẽ học từ con người :D Dĩ nhiên chi phí thuê người viết mấy trăm ngàn mẫu này nó mắc chứ không rẻ, vì bọn người mà viết được Tư Duy Lý Luận từng bước một cách khúc chiết rõ ràng trước khi trả lời thì bọn đấy có học hành cao ấy :D

    Nên DeepSeek mới làm luôn là prompt cho mô hình LLM DeepSeek V3 trực tiếp thử “Thinking-Step-by-Step” viết ra từng bước suy nghĩ trước khi trả lời, rồi lập trình một thuật toán lựa ra các câu trả lời mà Mô hình AI LLM DeepSeek V3 sinh ra hay nhất, có các bước Tư Duy Lý Luận Rõ Ràng Khúc Chiết Nhất, thì đánh điểm cao và thưởng cho AI (Reward Model), dần dần AI DeepSeek học được cách Reasoning một cách hiệu quả MÀ KHÔNG CẦN CON NGƯỜI DẠY.

    Và như thế vẫn chưa hết cái hay, trong quá trình DeepSeek tự dạy mình học Reasoning nó đã TỰ NHẬN THỨC ĐƯỢC việc phải TỰ ĐÁNH GIÁ LẠI Lý Luận Mà Nó Đã Viết rồi TỰ CHỈNH SỬA NẾU THẤY NÓ KHÔNG HỢP LOGIC !!!
    Đây được giới khoa học AI gọi là Aha Moment :)))) còn giới chuyên gia kol thì gào lên là “Bỏ Mẹ Rồi AI Tự Nhận Thức Tự Sửa Lỗi Được Rồi, Skynet comingggggggg” :))))

    Sau khi huấn luyện xong mô hình DeepSeek V3 có năng lực Reasoning gọi là DeepSeek R1-Zero thì DeepSeek nhận ra là mô hình này reasoning thì hay nhưng nó không biết kết luận nên đưa ra câu trả lời trớt qướt dù reasoning rõ hay :)))))

    Nên DeepSeek bắt đầu fine-tuning mô hình R1-Zero hướng vô một số nhóm nghành cụ thể như Toán, Khoa Học, Logic, Viết Code, Lập Trình … để câu trả lời nó thực tế hơn. VÀ họ có sử dụng con người tham gia đánh giá câu trả lời từ AI để tối ưu câu trả lời sao cho con người đọc hiểu được :)))) đây rõ ràng là kỹ thuật Re-inforcement Learning by Human Feedback (RLHF) rất truyền thống để huấn luyện AI LLM.

    Nên chỗ này họ có tiết kiệm chi phí thuê người tham gia quá trình huấn luyện đấy nhưng vẫn phải chi, không nhiều thôi :))))

    4. Sử dụng dữ liệu tổng hợp (Synthetic Data) từ OpenAI

    DeepSeek không nói trong paper nhưng giới khoa học AI đã tìm ra các manh mối rằng DeepSeek sử dụng dữ liệu sinh ra bởi AI của OpenAI để hỗ trợ cho quá trình huấn luyện bằng kỹ thuật RLHF. Do để tiết kiệm chi phí nên số người tham gia feedback-loop để kiểm định và điều chỉnh câu trả lời của AI DeepSeek trong giai đoạn cuối của việc huấn luyện là không nhiều, nên DeepSeek có sử dụng lượng lớn dữ liệu Hỏi-Đáp sinh ra từ AI của OpenAI để điều chỉnh câu trả lời của mô hình sau công đoạn Reasonin, giúp câu trả lời “thật hơn” như … OpenAI GPT :)))))

    Thậm chí ở phrase đầu khi cho mô hình AI tự học kỹ thuật Reasoning thì DeepSeek đã sử dụng dữ liệu tổng hợp từ LLaMA của Meta để làm prompt chỉ dẫn cho DeepSeek V3 có thể tự sinh chuỗi Reasoning.

    Tóm lại DeepSeek dùng dữ liệu tổng hợp để giảm chi phí làm dataset training cho AI. Nhưng cái hay là họ chứng minh luận điểm rằng dùng AI dạy AI sẽ làm mô hình AI bị thoái hoá và ngu đi thay vì khôn lên LÀ SAI :)))))

    5. Họ cung cấp Open Source luôn mô hình DeepSeek R1 :D

    Đây không phải đột phá kỹ thuật nhưng đột phá về mặt kinh doanh. Khi họ cho open source mô hình DeepSeek R1 thì họ mở ra hẳn một business ecosystem mới xoay quanh mô hình DeepSeek mà họ cung cấp, mọi người có thể tải mô hình về, mua card hay thuê card từ Nvidia để chạy AI DeepSeek. DeepSeek sẽ không phải tốn chi phí vận hành hạ tầng khổng lồ để cung cấp API cho mọi người như các mô hình đóng như OpenAI, Google hay Anthropic.

    NHƯNG nếu bạn muốn chỉnh sửa mô hình DeepSeek R1 hoặc sao chép nó thì không :D

    DeepSeek không cung cấp chi tiết về cách tạo Dataset - tức dữ liệu huấn luyện nên DeepSeek V3 và R1

    DeepSeek không cung cấp chi tiết về thuật toán Group Relative Policy Optimization (GRPO) và các thuật toán liên quan dùng để đánh giá câu trả lời reasoning của AI

    Trong ngành AI, dataset và các thuật toán dùng trong quá trình training mới là key turning point.

    Không có chúng bạn không thể sao chép hoặc fine-tune mô hình DeepSeek R1 đạt hiệu quả như DeepSeek đang làm.

    Soon thôi, DeepSeek sẽ bán các dịch vụ xoay quanh các mô hình Open Source này như fine-tuning…

    Nên mình mới nói là DeepSeek open-source chỉ 1 phần thôi, không hẳn là fully open-source đâu :)

    [ Kiếm tiền từ DeepSeek AI ]

    DeepSeek đem lại cho chúng ta một mô hình AI nhỏ vừa đủ và chất lượng rất tốt, có thể vận hành trên các GPUs thương mại ít vRAM, cá nhân hay doanh nghiệp nhỏ có thể mua được.

    Đây chính là điểm đăc biệt, chúng ta có thể tận dụng DeepSeek V3 và R1 để cung cấp các dịch vụ Local AI

    DeepSeek rất khéo khi cung cấp cho chúng ta một số mô hình R1 phiên bản nhỏ xíu 1B,7B,8B,14B,32B,70B là dạng thu nhỏ từ các mô hình AI nguồn mở khác như Qwen của Alibaba, LLaMA của Meta.

    Các mô hình nhỏ xíu này thậm chí chạy trược trên điện thoại hay máy tính laptop bình thường của bạn :))))

    Đây chính là điểm bùng nổ các Sản phẩm & Dịch vụ Ứng dụng AI chạy Local với DeepSeek AI :D đặc biệt là AI Agent sẽ dễ dàng triển khai hơn khi có năng lực Reasoning của DeepSeek R1

    Cuối tháng 2 tới Conductify AI sẽ cung cấp khoá học tạo AI Agent cho Cá Nhân và hệ thống chạy AI Agent Local ngay trên máy tính của bạn sử dụng DeepSeek R1 :D

    Thời AI Agent chạy đầy đường tới rồi !!! cám ơn người anh em Trung Hoa DeepSeek AI :))))))))

    Mọi người nhớ like và SHARE bài này giúp mình cứu reach cái profile đang bị bóp này :(((( nhiều Share thì mai mình sẽ mừng năm mới bằng bài hướng dẫn về cách dùng AI DeepSeek R1 làm AI Agent
    ---
    Dưới comment mình có giới thiệu một con AI Agent sử dụng mô hình DeepSeek R1 được điều phối bằng mô hình AI Nhiều-Agents-Phối-Hợp-Nhau-Để-Reasoning (Multi-Agents-Reasoning Model) của Conductify AI.
    AI Agent này cung cấp chức năng nghi nhận chi tiêu cá nhân và báo cáo thống kê chi tiêu theo phong cách mất dại như con AI Rolly á :)))) Tên em nó là Heo Đất Mỏ Hỗn :))))

    Hình minh hoạ anh CEO của DeepSeek là Liang Wenfeng đăng memes liên tọi troll OpenAI :))))) có vẻ DeepSeek gây bùng nổ toàn cầu cũng nằm ngoài dự kiến của Liang Wenfeng :))) sau kèo này chắc ngưng làm quỹ đầu tư chuyển qua full time AI làm rồi :))))
     
  12. Saggit

    Saggit Mega Man Lão Làng GVN

    Tham gia ngày:
    11/4/08
    Bài viết:
    3,098
    thì đang nói việc deepseek có base trên llama hay ko, chứ đâu phải việc chạy model trên local
     
  13. _Rain_

    _Rain_ Ame no Shinryū「高貴の」 CHAMPION ⚜ Duel Master ⚜ Lão Làng GVN

    Tham gia ngày:
    13/3/09
    Bài viết:
    13,962
    Nơi ở:
    Làng Vũ Đệ
    Chữ nhiều: +10 int worry-48
    Emoji nhiều: -100 charisma worry-49
     
    khiem4, NFSHP2, Small Nhii and 14 others like this.
  14. Saggit

    Saggit Mega Man Lão Làng GVN

    Tham gia ngày:
    11/4/08
    Bài viết:
    3,098
    thật chưa cần biết nội dung giá trị hay ko, spam một đống emo là mất cảm tình rồi
     
    harry999 and Thita_vipho like this.
  15. namchum2006

    namchum2006 Sonic the Hedgehog Lão Làng GVN

    Tham gia ngày:
    6/1/07
    Bài viết:
    4,811
    Nơi ở:
    Somewhere i belong
    Cho vào deepseek kêu nó lược bỏ emotion cho. Thời buổi AI lên ngôi thêm chút cá nhân hoá vào cho còn phân biệt giữa nngườ với máy. lèm bèm cái hồ bách thảo
     
  16. Nhật Bình

    Nhật Bình Dragon Quest

    Tham gia ngày:
    1/11/20
    Bài viết:
    1,382
    Tôi đang nói về khái niệm vector hoá câu trong nlp đó, còn chuyển từ fp32 về fp8 thì giải quyết được vấn đề gì vậy !? Có phải tự nhiên số chấm động là 16 hay 32 bit đâu, nó là độ rộng bộ nhớ thanh ghi trên cpu đấy. 8 hay 32 thì nó cũng chỉ tương ứng với 1 lệnh cpu thôi.
     
  17. Minamoto_Shizuka

    Minamoto_Shizuka Fire in the hole! Lão Làng GVN

    Tham gia ngày:
    24/10/09
    Bài viết:
    2,663
    Giảm được từ 32 xuống 8 đúng là cũng đều là chỉ 1 lệnh nhưng mà lượng phép tính tăng gấp 4. Kiểu như thay vì tính được 1 phép cộng hai số 32 bit thì giờ được 4 phép cộng hai số 8 bit.

    Hiện giờ các CPU/GPU đều hỗ trợ lệnh tính toán vector kiểu này. Trên CPU thì sẽ có những thanh ghi to khoảng 256 - 512bit, mỗi một lệnh sẽ tính được 8-16 phép toán với fp32 / 16-32 phép toán fp16 / 32-64 phép toán int8. Giờ bên AI nó còn quantization xuống đến tận int4 nữa. GPU thì sẽ là một dãy nhiều thanh ghi 64 bit.
     
  18. Skarrrik

    Skarrrik C O N T R A

    Tham gia ngày:
    24/6/23
    Bài viết:
    1,984
  19. Rây chồ

    Rây chồ Legend of Zelda

    Tham gia ngày:
    20/5/23
    Bài viết:
    1,085
    Chèn mấy cái emo cười cười nhìn ngu học vãi.
     
  20. 25512345

    25512345 C O N T R A Lão Làng GVN

    Tham gia ngày:
    24/7/08
    Bài viết:
    1,890
    Chiêu open source tính ra là rất hay. Nếu cty giấu chỉ cấp service như chat gpt thì Mẽo có thể cấm vận đc. Giờ open source ra làm ai cũng có thể dựa vào nó kiếm tiền đc thì Mẽo ko thể làm gì. Giờ các cty cạnh tranh nhau trên giá và chất lượng custom, cái là lợi thế của TQ, mấy con độc quyền làm giá kiểu open AI ngã hết =))
     

Chia sẻ trang này