Ngành công nghiệp chip đang gồng mình trước nhu cầu từ trí tuệ nhân tạo

Nghiên cứu - Trao đổi - Ngày đăng : 21:45, 12/10/2023

Các mô hình ngôn ngữ lớn đang ngày càng phát triển về quy mô, cũng như số lượng các tổ chức ứng dụng trí tuệ nhân tạo tăng vọt. Mô hình càng phát triển thì càng tiêu tốn nhiều chip xử lý - làm trầm trọng thêm chuỗi cung ứng chip vốn đã căng thẳng.

Trí tuệ nhân tạo sáng tạo (generative AI - genAI) dưới dạng công nghệ xử lý ngôn ngữ tự nhiên đã gây bão trên toàn thế giới, khiến các tổ chức lớn nhỏ đổ xô thử nghiệm công nghệ này nhằm tự động hóa các nhiệm vụ và tăng cường sản xuất.

Theo công ty nghiên cứu thị trường IDC, những nhà khổng lồ công nghệ như Google, Microsoft và Amazon đều đang cung cấp các công nghệ AI dựa trên đám mây hoặc đưa chúng vào ứng dụng kinh doanh, với mức chi tiêu toàn cầu cho AI của các công ty dự kiến sẽ đạt 301 tỷ USD vào năm 2026.

Nhưng các công cụ genAI tiêu tốn rất nhiều tài nguyên tính toán, chủ yếu để đào tạo các mô hình ngôn ngữ lớn (LLM) làm nền tảng cho ChatGPT của OpenAI và Bard của Google. Khi việc sử dụng AI tăng lên thì phần cứng được sử dụng để chạy các mô hình đó, vốn là kho lưu trữ thông tin để xử lý ngôn ngữ tự nhiên, cũng tăng theo.

Bộ xử lý đồ họa (GPU), được tạo ra bằng cách kết nối các chip khác nhau - chẳng hạn như chip xử lý và chip nhớ - vào một gói duy nhất, đã trở thành nền tảng của hệ thống AI vì chúng cung cấp băng thông cần thiết để đào tạo và triển khai LLM. Nhưng các nhà sản xuất chip không thể theo kịp nhu cầu. Kết quả là, thị trường chợ đen dành cho GPU AI đã xuất hiện trong những tháng gần đây.

Một số người đổ lỗi cho sự thiếu hụt của các công ty như Nvidia (nhà sản xuất chip GPU lớn nhất hiện nay), đã dồn thị trường sản xuất GPU và siết chặt nguồn cung. Trước sự trỗi dậy của AI, Nvidia đã thiết kế và sản xuất các bộ xử lý cao cấp giúp tạo ra đồ họa phức tạp trong trò chơi điện tử - loại xử lý chuyên biệt hiện có tính ứng dụng cao cho máy học (machine learning) và AI.

Cơn khát GPU

Năm 2018, OpenAI đã công bố một bản phân tích cho thấy kể từ năm 2012, sức mạnh tính toán được sử dụng trong việc đào tạo AI đã tăng theo cấp số nhân, tăng gấp đôi sau mỗi 3 - 4 tháng (để so sánh, định luật Moore cho rằng số lượng transistor bán dẫn trong một mạch tích hợp tăng gấp đôi sau mỗi hai năm).

Báo cáo của OpenAI cho biết từ năm 2012, số liệu này đã tăng hơn 300.000 lần (thời gian tăng gấp đôi trong 2 năm sẽ chỉ mang lại mức tăng gấp 7 lần). Theo báo cáo này, những cải tiến về tính toán là một thành phần quan trọng trong tiến trình AI, vì vậy, miễn là xu hướng này vẫn tiếp tục, thì đáng để chuẩn bị cho những tác động của các hệ thống nằm ngoài khả năng hiện nay.

Không có lý do gì để tin rằng luận điểm của OpenAI đã thay đổi. Trên thực tế, với sự ra đời của ChatGPT vào tháng 11 năm ngoái, nhu cầu đã tăng vọt. Theo cơ quan IEEE (Viện kỹ thuật điện và điện tử), chúng ta đang chứng kiến sự gia tăng lớn về nhu cầu phần cứng - chủ yếu là GPU - từ các công ty công nghệ lớn để đào tạo và thử nghiệm các mô hình AI khác nhau nhằm cải thiện trải nghiệm người dùng và bổ sung các tính năng mới cho các sản phẩm hiện có của họ.

Đôi khi, những người sáng tạo LLM như OpenAI và Amazon dường như đang tham gia một cuộc chiến để giành lấy ai có thể xây dựng mô hình lớn nhất. Một số hiện có kích thước vượt quá 1 nghìn tỷ tham số, nghĩa là chúng đòi hỏi nhiều sức mạnh xử lý hơn để huấn luyện và hoạt động.

Tuy nhiên, có ý kiến cho rằng việc tạo ra các mô hình lớn hơn sẽ không giúp lĩnh vực này tiến lên phía trước. Ngay cả ở giai đoạn này, việc đào tạo các mô hình LLM vẫn cực kỳ tốn kém về mặt tính toán, tiền bạc và tạo ra lượng khí thải carbon lớn hơn đối với khí hậu. Ngoài ra, cộng đồng nghiên cứu sẽ phát triển mạnh mẽ khi những người khác có thể truy cập, đào tạo, kiểm tra và xác nhận các mô hình này.

Hầu hết các trường đại học và tổ chức nghiên cứu không đủ khả năng để nhân rộng và cải tiến các LLM vốn đã khổng lồ, vì vậy họ tập trung vào việc tìm kiếm các kỹ thuật hiệu quả, sử dụng ít phần cứng và thời gian hơn để đào tạo và triển khai các mô hình AI. Theo đánh giá, cộng đồng nghiên cứu AI sẽ phải mất từ một đến hai năm nữa mới tìm ra được giải pháp khả thi.

Các công ty khởi nghiệp có giải cứu?

Các công ty khởi nghiệp về chip AI có trụ sở tại Mỹ như Graphcore, Kneron và iDEAL Semiconductor tự coi mình là lựa chọn thay thế cho những đàn anh trong ngành như Nvidia. Ví dụ, Graphcore đang đề xuất một loại bộ xử lý mới gọi là bộ xử lý thông minh (IPU), được thiết kế ngay từ đầu để đáp ứng các nhu cầu tính toán AI. Chip của Kneron được thiết kế cho các ứng dụng AI biên, chẳng hạn như xe điện (EV) hoặc tòa nhà thông minh.

Vào tháng 5, iDEAL Semiconductor đã ra mắt kiến trúc dựa trên silicon mới có tên là “SuperQ”, mà hãng tuyên bố có thể tạo ra hiệu suất cao hơn trong các thiết bị bán dẫn như diod, transistor bán dẫn hiệu ứng trường bán dẫn oxit kim loại (MOSFET) và mạch tích hợp.

Trong khi trò chơi điện tử vẫn là một ngành kinh doanh lớn đối với Nvidia, thì mảng kinh doanh AI mới nổi của hãng đã cho phép công ty kiểm soát hơn 80% thị trường chip AI. Tuy nhiên, bất chấp doanh thu của Nvidia tăng vọt đáng kể, các nhà phân tích nhận thấy các vấn đề tiềm ẩn với chuỗi cung ứng của hãng. Công ty thiết kế chip của riêng mình nhưng – giống như phần lớn ngành công nghiệp bán dẫn – họ dựa vào TSMC (nhà sản xuất chip lớn nhất của Đài Loan) để sản xuất chúng, khiến Nvidia dễ bị gián đoạn chuỗi cung ứng.

Ngoài ra, những nỗ lực về nguồn mở đã cho phép phát triển vô số mô hình ngôn ngữ AI, vì vậy các công ty nhỏ và khởi nghiệp về AI cũng đang nhảy vào phát triển LLM dành riêng cho sản phẩm. Và với những lo ngại về quyền riêng tư về việc AI vô tình chia sẻ thông tin nhạy cảm, nhiều công ty cũng đang đầu tư vào các sản phẩm có thể chạy cục bộ các mô hình AI nhỏ (được gọi là Edge AI).

Nó được gọi là “edge” (cạnh) vì tính toán AI diễn ra gần hơn với người dùng ở rìa mạng nơi chứa dữ liệu, chẳng hạn như trên một máy chủ đơn độc hoặc thậm chí trong ô tô thông minh - trái ngược với LLM nằm ở trung tâm trên đám mây hoặc riêng tư trung tâm dữ liệu.

Edge AI đã giúp các bác sĩ X quang xác định bệnh lý, điều khiển các tòa nhà văn phòng thông qua thiết bị Internet of Things (IoT) và được sử dụng để điều khiển ô tô tự lái. Thị trường AI biên được định giá 12 tỷ USD vào năm 2021 và dự kiến sẽ đạt 107,47 tỷ USD vào năm 2029.

Sắp tới, sẽ xuất hiện nhiều sản phẩm hơn có khả năng chạy AI cục bộ, làm tăng thêm nhu cầu về phần cứng.

LLM nhỏ hơn có phải là câu trả lời?

Gartner - công ty nghiên cứu thị trường cho biết sớm hay muộn việc mở rộng quy mô chip GPU sẽ không theo kịp tốc độ tăng trưởng về kích thước mô hình AI. Vì vậy, việc tiếp tục làm cho các mô hình ngày càng lớn hơn không phải là một lựa chọn khả thi.

iDEAL Semiconductor cũng cho rằng sẽ cần phát triển các giải pháp LLM và AI hiệu quả hơn, nhưng việc sản xuất GPU bổ sung là một phần không thể tránh khỏi của phương cách này.

Cho dù gì, nhu cầu năng lượng sẽ tăng, phải theo kịp nhu cầu năng lượng của cả phần cứng và trung tâm dữ liệu. Việc đào tạo LLM có thể tạo ra lượng khí thải carbon đáng kể. Điều này cho thấy sự cần thiết về cải tiến trong sản xuất GPU cũng như trong bộ nhớ và chất bán dẫn được sử dụng để thiết kế máy chủ AI sử dụng GPU.

Đầu tháng này, nhà sản xuất chip lớn nhất thế giới, TSMC, thừa nhận họ đang phải đối mặt với những hạn chế trong sản xuất và số lượng GPU cho các ứng dụng AI. Semicon Đài Loan hiện không thể đáp ứng tất cả các nhu cầu của khách hàng, nhưng họ đang nỗ lực giải quyết khoảng 80% trong số đó.

Vào năm 2021, sự sụt giảm trong sản xuất chip trong nước đã nhấn mạnh cuộc khủng hoảng chuỗi cung ứng trên toàn thế giới dẫn đến lời kêu gọi chuyển sản xuất về Mỹ. Với việc chính phủ Mỹ thúc đẩy họ thông qua Đạo luật CHIPS, những công ty như Intel, Samsung, Micron và TSMC đã công bố kế hoạch xây dựng một số nhà máy mới ở Mỹ. (Qualcomm, hợp tác với GlobalFoundries, cũng có kế hoạch đầu tư 4,2 tỷ USD để tăng gấp đôi sản lượng chip tại cơ sở ở Malta, NY.)

TSMC có kế hoạch chi tới 36 tỷ USD trong năm nay để tăng cường sản xuất chip, ngay cả khi các công ty khác - cả nhà sản xuất thiết bị tích hợp (IDM) và xưởng sản xuất đều đang hoạt động gần hoặc hết công suất.

Nhìn chung, ngành công nghiệp chip không thể theo kịp nhu cầu. Sự đổi mới GPU đang diễn ra chậm hơn so với việc mở rộng và tăng trưởng kích thước mô hình. Phần cứng luôn thay đổi chậm hơn phần mềm.

Cả Đạo luật Khoa học và CHIPS của Hoa Kỳ và Đạo luật Chips của Châu Âu đều nhằm giải quyết các thách thức về cung và cầu bằng cách đưa trở lại và tăng cường sản xuất chip trên chính đất của họ. Mặc dù vậy, hơn một năm sau khi Đạo luật CHIPS được thông qua, TMSC đã lùi ngày khai trương Phoenix, AZ Foundry – một nhà máy được Tổng thống Mỹ Biden coi là trung tâm trong kế hoạch hồi hương chip trị giá 52,7 tỷ USD. TSMC đã lên kế hoạch khai trương vào năm 2024; hiện nó sẽ được đưa lên mạng vào năm 2025 vì thiếu lao động có tay nghề cao. Nhà máy TSMC thứ hai vẫn dự kiến mở cửa vào năm 2026.

Nhà cung cấp cacbua silic lớn nhất thế giới, Wolfspeed, gần đây thừa nhận có thể phải đến nửa cuối thập kỷ trước, các khoản đầu tư liên quan đến Đạo luật CHIPS mới ảnh hưởng đến chuỗi cung ứng.

iDEAL Semiconductor cho biết các đạo luật về Chips của Hoa Kỳ và Châu Âu sẽ giúp giải quyết vấn đề chuỗi cung ứng bằng cách đưa một số bộ phận của ngành bán dẫn về nước để tăng khả năng phục hồi trong hệ thống sản xuất.

Tuy nhiên, bất chấp sự thiếu hụt chip AI, cổ phiếu chip AI vẫn tăng vọt, bao gồm cả Nvidia, vốn hóa thị trường đã vượt mốc nghìn tỷ USD khi giá cổ phiếu của nó tăng hơn gấp ba lần trong 52 tuần qua.

LTV