Структуры

1. Основа технологии ИИ

2. Как работает модель машинного обучения?

3. Экспоненциальный рост спроса на вычисления

4. Предел закона Мура

5. Во время золотой лихорадки продавать лопаты — роль полупроводниковых компаний

6. Дизайн ИС, производство ИС, упаковка и тестирование

7. TSMC не представляет труда в технологической лихорадке

1. Основы технологии ИИ

Недавний бум приложений, связанных с ИИ, таких как ChatGPT, Lensa AI, беспилотное вождение и т. д., привлек внимание людей, интерес или беспокойство по поводу технологии ИИ. Однако технология ИИ не нова. На самом деле концепция ИИ применялась для решения математических и компьютерных задач с 1950-х годов. С течением времени, благодаря невероятному развитию технологической отрасли, особенно передовых полупроводников, а также развитию облачных вычислений и центров обработки данных, технология искусственного интеллекта пережила беспрецедентный рост.

Ось развития AI, ML и DL относится к путям технологической эволюции искусственного интеллекта, машинного обучения и глубокого обучения. Вот краткие пояснения к трем полям:

  • Искусственный интеллект (ИИ): относится к технологической области, которая позволяет машинам обладать интеллектом и способностями к мышлению, как у людей. Ранние технологии искусственного интеллекта в основном основывались на правилах и логике, таких как экспертные системы. Позже, с появлением технологий машинного обучения и глубокого обучения, ИИ стал сосредотачиваться на обучении и эволюции больших объемов данных, тем самым достигая более высоких уровней искусственного интеллекта.
  • Машинное обучение (ML): относится к технологической области, позволяющей машинам повышать свою производительность за счет самостоятельного обучения. Основой машинного обучения являются статистика и математика. Обучая модели, машины могут изучать шаблоны и функции из больших объемов данных, а затем выполнять такие задачи, как прогнозирование и классификация неизвестных данных.
  • Глубокое обучение (DL) — это раздел машинного обучения. Создавая многоуровневые модели нейронных сетей, которые имитируют структуру и работу нейронов в человеческом мозге, глубокое обучение обеспечивает более продвинутые способности к обучению и познанию. Глубокое обучение широко применяется в таких областях, как распознавание изображений, распознавание речи и обработка естественного языка (NLP).

2. Как работает модель машинного обучения?

«Модель машинного обучения» и процесс ее обучения звучат довольно сложно, не так ли?

Но на самом деле это не так!

Короче говоря, процесс машинного обучения можно разбить на 7 основных этапов.

1/ Сбор данных

  • Модели машинного обучения учатся на данных, которые вы им предоставляете.
  • «Мусор на входе, мусор на выходе» => Качество данных, которые вы передаете машине, будет определять точность вашей модели.

2/Подготовить данные

  • Очистите, рандомизируйте, визуализируйте данные.
  • Разработка функций

3/ Выберите модель

  • Модель машинного обучения определяет результат, который вы получите после запуска алгоритма машинного обучения на собранных данных.
  • Важно выбрать модель, соответствующую поставленной задаче.
  • Большинство моделей машинного обучения являются моделями с открытым исходным кодом.

4/ Обучить модель

  • Отправьте подготовленные данные в свою модель машинного обучения, чтобы найти закономерности и сделать прогнозы.
  • Это приводит к тому, что модель учится на данных, чтобы выполнить поставленную задачу.
  • Со временем, с обучением, модель становится лучше в прогнозировании.

5/ Оценить модель

  • Используйте «невидимые данные» и передайте их модели, чтобы проверить их точность.

6/ Настройка параметров

  • Параметры — это переменные в модели, которые обычно определяет программист.
  • При конкретном значении вашего параметра точность будет максимальной. Настройка параметров относится к поиску этих значений.

7/ Делайте прогнозы

  • Наконец, вы можете использовать свою модель на невидимых данных и делать точные прогнозы.

Для проведения машинного обучения нам нужен большой объем данных для моделирования и тестирования, что требует значительных вычислительных мощностей. Можно представить, что для каждой проблемы в модель нужно вводить разные данные для тестирования, а затем результаты оптимизируются. Этот процесс обычно называют обучением. Однако для всех этих вычислений требуются усовершенствованные микросхемы, обеспечивающие вычислительную мощность. По мере того как модели становятся все более сложными, для вычислений все чаще требуются чипы, специально разработанные и оптимизированные для AI/ML.

3. Экспоненциальный рост спроса на вычисления

По мере того, как модели машинного обучения становятся все более сложными, со значительным увеличением масштабов как параметров, так и вычислений, а также в целях оптимизации производительности и точности моделей, вычислительные требования и затраты на модели машинного обучения растут в геометрической прогрессии.

По данным ARK BIG IDEAS 2021, обучение GPT-3 на оборудовании 2020 года стоит до 100 миллионов долларов США.

Конечно, в соответствии с законом Мура, производительность оборудования будет постоянно расти. Тем не менее, потребность в вычислительной мощности моделей ML также увеличивается, причем с гораздо более высокой скоростью роста.

Согласно отчету Guosheng Securities Сколько вычислительной мощности требуется для ChatGPT?, стоимость обучения одной модели языка регрессии (GPT-3) составляет около 1,4 миллиона долларов США. а для некоторых более крупных языковых моделей (LLM) стоимость обучения колеблется от 2 до 12 миллионов долларов США.

Исходя из среднего числа независимых посетителей ChatGPT в 13 миллионов в январе 2023 года, для этого потребуется более 30 000 графических процессоров Nvidia A100 с первоначальными инвестиционными затратами примерно в 800 миллионов долларов США и ежедневным счетом за электроэнергию в размере около 50 000 долларов США.

Кроме того, согласно OpenAI, модели машинного обучения демонстрируют тенденцию к тому, что им требуется удвоение вычислительной мощности каждые 3–4 месяца, то есть им требуется примерно в 11 раз больше вычислительной мощности. больше вычислительной мощности в год.

Но модели также подвергаются оптимизации. Согласно отчету OpenAI, вычислительная мощность, необходимая моделям, со временем уменьшается из-за оптимизации. Вычислительная эффективность моделей машинного обучения растет с каждым годом, поскольку сами модели становятся более эффективными и требуют меньше вычислительной мощности. OpenAI обнаружил, что вычислительная эффективность моделей машинного обучения может удваиваться каждые 16 месяцев, что приводит к ежегодному увеличению эффективности примерно на 60 %.

Следовательно, если мы объединим концепцию закона Мура, согласно которому вычислительная мощность удвоится за 2 года (CAGR + 41,4%) и скорость оптимизации (60% в год) от OpenAI,

(1+ 0.414)(1+ 0.60)= 2.2624

мы получим 2,2624, что означает, что вычислительная мощность модели ML будет увеличиваться в 2,2624 раза в год.

Напомним, что спрос на вычислительную мощность будет увеличиваться в 11 раз в год, мы можем объединить все числа.

  • вычислительная мощность спрос модели машинного обучения будет увеличиваться в 11 раз в год
  • вычислительная мощность модели машинного обучения будет увеличиваться в 2,2624 раза в год

11 ÷ 2.2624 = 4.862

В заключение следует отметить, что требования к вычислительной мощности моделей машинного обучения растут более чем в 4,862 раза быстрее, чем растет эффективность вычислений. Более того, поскольку скорость принятия модели ML продолжает расти, вычислительные требования будут только расти.

4. Предел закона Мура

Все наши предыдущие заявления и расчеты основаны на устойчивости закона Мура. Но, как я упоминал в предыдущей статье, закон Мура уже достиг своих физических пределов.

Проще говоря, закон Мура предполагает, что вычислительная мощность приблизительно удвоится в течение 18–24 месяцев. Несмотря на то, что мы могли бы применять передовые технологии упаковки, такие как Chiplet ( 2.5D/3D-упаковка), чтобы расширить закон Мура, но в какой-то момент экспоненциальный рост вычислительной мощности достигнет своего предела.

Судя по приведенным выше графикам, с 2000-х годов улучшения плотности транзисторов, добавления большего количества ядер, производительности потоков, тактовой частоты и энергоэффективности перестали прогрессировать в соответствии с законом Мура (увеличение производительности в 2 раза за 2 года). .

В общем, достижение предела закона Мура неизбежно, и кажется, что достижение предела будет представлять большую угрозу для всей полупроводниковой отрасли или даже для всей технологической отрасли.

Однако все наоборот, особенно для компаний, производящих полупроводники.

Когда скорость повышения производительности отдельного чипа замедляется по сравнению с растущим спросом на вычислительные ресурсы, производителям чипов необходимо быстро расширять свои производственные мощности, чтобы удовлетворить растущий спрос. Таким образом, ограничение закона Мура на самом деле является благом, а не угрозой для этой отрасли.

Давайте посмотрим на простую формулу дохода:

P × Q = доход

P: слегка уменьшится из-за повышения эффективности проектирования и производства (кривая обучения).

Q :будет быстро расти из-за невероятно высокой потребности в вычислениях и ограничения закона Мура.

После объединения эффектов рентабельность полупроводниковой промышленности становится ВЫСОКО БЫЧЬЕЙ.

Во время золотой лихорадки продавайте лопаты — роль полупроводниковых компаний

Модели обучения AI/ML широко применяются (и это лишь некоторые из них):

1. Генеративный ИИ

  • LLM: ChatGPT, Бард…
  • Стабильная диффузия: Lensa AI, Midjourney…

2. Системы рекомендаций

  • анализировать поведение человека при покупке/просмотре и выявлять закономерности, которые помогут предоставить ему предложения по контенту, наиболее точно соответствующие его или ее интересам.
  • Система рекомендаций по медиа: Netflix, Youtube, TikTok…
  • Электронная коммерция: Amazon, Shopify, бронирование…
  • Поисковая система: Google Search, Microsoft Edge…

3. Автопилот

  • Tesla Dojo, Waymo, Nvidia…

4. Производство

  • Оптимизация эффективности производственного процесса, цепочки поставок и управления запасами…

Более того, постоянно увеличивающийся объем данных, а также спрос на облачные вычисления/хранилища стимулируют строительство центров обработки данных крупными технологическими компаниями, такими как Amazon, Microsoft, Google и т. д.

Чтобы удовлетворить потребности в вычислениях и хранении данных для различных конечных пользователей, нам нужно множество ЦП, графических процессоров, DRAM, флэш-памяти NAND, FPGA, ASIC и т. д. Спрос на чипы также подчеркивает незаменимую роль полупроводниковых компаний в различных технологических приложениях.

Итак, здесь возникает понятие

Во время золотой лихорадки продавайте лопаты.

Возьмем, к примеру, компании, занимающиеся облачными вычислениями. Конкуренция между Google GCP, Microsoft Azure и Amazon AWS довольно высока. Кроме того, трудно сказать, какая компания выделится и завоюет долю рынка.

Но самое главное, им всем нужно огромное количество чипов, некоторые чипы разработаны самими компаниями (Google, Amazon), другие разработаны компаниями по разработке интегральных схем, такими как как Nvidia, AMD или Intel.

Огромный спрос на передовые чипы равен огромному спросу на полупроводники, что выгодно производителям интегральных схем, таким как TSMC, Intel, Samsung. После разработки ИС и Big Techs, и Fabless должны передать производство микросхем этим производителям ИС.

Так что, с моей точки зрения, производители ИС выступают в качестве поставщиков лопат во время «технической лихорадки», поскольку конкуренция в секторе проектирования ИС довольно жесткая, но не в секторе производства передовых микросхем.

5. Дизайн ИС, производство ИС, упаковка и тестирование

Жесткая конкуренция в секторе проектирования интегральных схем

В настоящее время на рынке есть много конкурентов в игре IC Design, таких как Fabless (Nvidia, AMD, Qualcomm), Big Techs (Apple, Google, Amazon, Microsoft, Tesla) и стартапы (WaveComputing, PEZY), что приводит к различные виды чипов AI/ML. Но производительность оборудования — не единственный фактор, определяющий победу в игре. Вместо этого хорошо интеграции между оборудованием и программным обеспечением. Текущим мейнстримом является использование чипов графических процессоров Nvidia с их разработанным языком программирования Cuda для оптимизации вычислений. Другие программные системы включают PyTorch, Tensorflow и т. д.

Однако у каждого подхода есть свои преимущества.

Чипы ИИ от Nvidia используют ту же архитектуру, что и графические процессоры; ASIC могут оптимизировать тензорное умножение для повышения производительности; ПЛИС обладают гибкими функциями, которые могут помочь крупным компаниям-разработчикам программного обеспечения ускорить определенные приложения ИИ в своих крупных центрах обработки данных. В настоящее время трудно сказать, какой подход в конечном итоге займет наибольшую долю рынка в вычислениях AI/ML.

График и статья, предоставленные Shan Tang, иллюстрируют острую конкуренцию в разработке ИС.

НО, независимо от того, насколько жесткой будет конкуренция или какая компания в конечном итоге выиграет долю рынка, компаниям, занимающимся разработкой микросхем, по-прежнему необходимо полагаться на передовые литейные заводы для производства микросхем.

TSMC – лидер среди всех производителей интегральных схем

В области производства интегральных схем улучшение технологических узлов, производительность и большой объемявляютсятремя наиболее важными факторами. Будь то сейчас или в обозримом будущем, TSMC намного опережает Samsung и Intel по этим трем показателям, особенно в поддержании высоких показателей доходности.

На рынке часто ходят слухи о том, что некая компания разработала усовершенствованный технологический узел. Если предположить, что слухи верны, эти компании на самом деле все еще не могут поддерживать высокую производительность при массовом производстве. Низкий выход указывает на низкую конкурентоспособность продукции, а также на значительную потерю доверия клиентов к этим литейным производствам. Вот почему в последние годы многие компании, разрабатывающие микросхемы, которые разрабатывают микросхемы высокого класса, обращались к TSMC за своими заказами.

Доход TSMC от литейного производства в зависимости от тенденций в области пластин также намного выше, чем у других. В то время как доход других литейных заводов в расчете на пластину имеет тенденцию к снижению, только у TSMC наблюдается тенденция к росту, что свидетельствует о том, что компания хорошо адаптирует кривую обучения.

Согласно отчету REDEFINE INNOVATION, в нем указаны три основные причины, по которым TSMC является лидером в области производства интегральных схем.

  1. Цикл продвижения узла процесса и превращения прибыли в НИОКР и капиталовложения:

TSMC в значительной степени сосредоточена на производстве логических ИС, но ее основные конкуренты, Samsung и Intel, являются IDM, а это означает, что они также получили бизнес по разработке ИС. Кроме того, Samsung и Intel уделяют больше внимания микросхемам памяти. Таким образом, вышеупомянутые факторы неизбежно разделяют ресурсы этих двух компаний, чтобы конкурировать с TSMC.

2. Раннее внедрение новой технологии:

Чтобы лидировать в соревновании продвинутых узлов процесса, прогресс в кривой обучения имеет первостепенное значение. Непрерывное внедрение инноваций является одним из важнейших факторов прогресса.

Около 10 лет назад, когда технология ASML EUV была еще очень незрелой, TSMC уже приобрела EUV и разрешила своим сотрудникам использовать и знакомиться с ней. Поэтому, когда за последние два года в технологии производства EUV произошел стремительный прорыв, TSMC смогла быстро внедрить EUV в свой собственный производственный процесс. Первоначально представив EUV на нескольких критических уровнях процесса N7+, TSMC постепенно распространила это обучение на процессы N5 и даже N3. В результате многие ранние приготовления и обучение TSMC позволили ей продвинуться на несколько шагов впереди своих конкурентов в фактическом развитии процесса.

3. Твердые эксперименты с параметрами процесса и их выполнение

Значение расширенной упаковки и тестирования

По мере того, как закон Мура приближается к своим пределам, миниатюризация процессов постепенно сталкивается с физическими ограничениями. Таким образом, особое значение приобретает передовая упаковка, такая как упаковка 2.5D/3D, технология Chiplet. Пожалуйста, обратитесь к моей предыдущей статье Чиплет идет».

(TSMC также занимается усовершенствованной упаковкой….)

6. TSMC не представляет труда в технологической лихорадке

Сводка

  • TSMC в настоящее время является наиболее конкурентоспособным производителем микросхем. Его общая доля на рынке производства микросхем составляет примерно 60%, а доля рынка логических микросхем превышает 80%.
  • Ранние пользователи оборудования EUV. (Преимущество первопроходца.)
  • Доходы от бизнеса высокопроизводительных вычислений превзошли доходы от бизнеса смартфонов, став самым важным источником дохода.
  • Самый высокий процент валовой прибыли среди всех конкурентов.

Импульс

  • Растущий спрос на вычислительные ресурсы для роста приложений модели AI/ML.
  • HPC: облачные вычисления, центр обработки данных и т. д.
  • Из-за высококачественного передового технологического процесса TSMC, особенно 7-нм, 5-нм, 3-нм и т. Д., Многие компании, занимающиеся разработкой микросхем, обращаются к TSMC, а не к Intel и Samsung. (даже дизайн микросхем Intel может превратиться в TSMC)

Конкурс

  • Раннее внедрение TSMC оборудования ASML EUV по сравнению с конкурентами позволило ей раньше преодолеть кривую доходности. Это означает, что TSMC значительно опережает Intel и Samsung с точки зрения использования EUV для исследований и разработок, расширения производства и массового производства.
  • Показатели доходности намного выше, чем у Intel и Samsung, особенно с точки зрения передовых технологических узлов.

Рыночный консенсус

  1. Оценка

Рынок по-прежнему определяет TSMC как циклическую отрасль, присваивая ей коэффициент 16x NTM PE. В прошлом бизнес смартфонов был основным источником дохода TSMC. Apple приносит примерно 25% дохода TSMC, а Huawei — 15%, и, поскольку бизнес смартфонов цикличен, тенденция прибыли TSMC также была цикличной.

Однако, поскольку спрос на вычислительную мощность моделей AI/ML значительно увеличит спрос на полупроводники, ожидается, что в следующем десятилетии TSMC будет демонстрировать высокие и стабильные темпы роста.

В этом контексте я полагаю, что 16-кратный NTM PE будет переоценен до 20-кратного или более.

2. Прибыльность

Консенсус о росте прибыли в течение следующих 5 лет составляет около 22% в год, достигнув 17,75 долларов на акцию в 2027 году, что, я считаю, занижено. С моей точки зрения, CAGR прибыли TSMC может достичь 30%, а это означает 24,39 доллара на акцию в 2027 году.

Риск

  • Геополитический риск со стороны Китая.
  • Валовая маржа % Риск снижения из-за капитальных затрат в США.

Новичок в трейдинге? Попробуйте криптотрейдинговые боты или копи-трейдинг на лучших криптобиржах

Присоединяйтесь к Coinmonks Telegram Channel и Youtube Channel и получайте ежедневные Крипто новости

Также читайте