LINUX.ORG.RU
ФорумTalks

Crucial всё

 , , ,


0

1

Компания Micron Technology объявила о решении закрыть потребительский сегмент своего бизнеса и прекратить выпуск оперативной памяти и твердотельных накопителей под брендом Crucial.

По словам Micron, отказ от потребительского направления стал следствием стремительного роста спроса на память и накопители в сегменте центров обработки данных.

Всякое было на рынке компьютерного железа, но чтобы ликвидировать гражданский сегмент в пользу корпоративных покупателей…

rip

Значит, гражданский сегмент сильно просел за последние годы.

Ololo_Trololo ★★
()

Класть яйца в одну корзину глупое решение. Все почему то решили что пузырь ИИ не лопнет и будет только расти. Ну ну

karton1 ★★★★★
()

Потребители должны сидеть на тонких клиентах/мобилках и потреблять SaaS по подпискам в облаках. Всё логично.

P.S. Данные свои, естественно, хранить там же, в надёжном ЦОДе.

realloc ★★★★
()
Последнее исправление: realloc (всего исправлений: 1)

ликвидировать гражданский сегмент в пользу корпоративных покупателей

IBM? И Nokia

One ★★★★★
()
Последнее исправление: One (всего исправлений: 1)
Ответ на: комментарий от One

IBM продала, а не закрыла. Нокия тоже не закрывала, а тупо просрала.

avgust23
() автор топика

А вообще, похоже, это и есть реальная причина почему DDR4/5 ушли в небо, заранее закупки крупные игроки начали делать с учётом ухода 25% доли микрон

One ★★★★★
()
Ответ на: комментарий от karton1

ИИ

Как хорошо поработали маркетологи. Всего пару лет назад считалось, что если ты говоришь AI вместо LLM, то ты либо недалекий, либо скаммер, продающий недостартап. А теперь это общепринятое слово, хотя суть и не поменялась.

the_real_kinik ★★★
()
Ответ на: комментарий от karton1

Класть яйца в одну корзину глупое решение. Все почему то решили что пузырь ИИ не лопнет и будет только расти. Ну ну

Почему только ИИ? Данных много, и их становится всё больше, и все хотят их обрабатывать. Если с ИИ не получится, все надеются, что будут другие рабочие способы.

question4 ★★★★★
()
Ответ на: комментарий от karton1

Все почему то решили что пузырь ИИ не лопнет

Но мы то не такие, нас лорчик надоумил, я вот ожидал что вот-вот сейчас лопнет, но вместо этого память подорожала. Но ничо, завтра лопнет, будем памятью обкладывать сортир вместо плитки, как было после майнинга с видео… эээ, не обращайте внимания, оговорился)

goingUp ★★★★★
()
Последнее исправление: goingUp (всего исправлений: 1)

Хорошая была память. Гналась отменно.

dimgel ★★★★★
()
Ответ на: комментарий от the_real_kinik

Всего пару лет назад считалось, что если ты говоришь AI вместо LLM, то ты либо недалекий, либо скаммер, продающий недостартап.

Не выдумывай, не было такого. Никакой разницы между говорящими эти две аббревиатуры не было, они и так и так в 99% случаев либо недалёкие, либо скаммеры.

firkax ★★★★★
()
Ответ на: комментарий от cobold

Он перестал делать планки памяти под брендом crucial

И в OEM пустят освободившиеся мощности что были под розницу? Как-то сомневаюсь.

Перепрофилируют на выпуск серверной / корпоративной памяти, HBM, SSD для дата-центров - как-то верится больше.

One ★★★★★
()
Ответ на: комментарий от One

Чипы памяти одни и те же что для серверной что для потребительской памяти. Перераспределение DDR <-> HBM возможно, да, так как последняя более маржинальна и на тех чипах потребительскую память не делают. Но в новости об этом ничего нет

cobold ★★★★★
()
Ответ на: комментарий от realloc

P.S. Данные свои, естественно, хранить там же, в надёжном ЦОДе.

Слово надёжном надо было написать в кавычках «надёжном».

anc ★★★★★
()
Ответ на: комментарий от the_real_kinik

Всего пару лет назад считалось, что если ты говоришь AI вместо LLM, то ты либо недалекий, либо скаммер,

А 20-25 лет назад не было равенства между нейросетями и AI (как раз тогда начал читать по применению нейросетей в экономике), в учебниках в AI понимание вкладывали все что угодно, от байесовских сетей при неполных данных до агентного моделирования. А нейросети были просто методом, без функционала и осознания этого псевдоинтеллекта.

One ★★★★★
()
Ответ на: комментарий от karton1

В России же пузырь на рынке жилья не лопается, хотя сама Долина его активно пошатала. А жильё как стоило запредельно дорого, при минимальном спросе, так и стоит.

tiinn ★★★★★
()
Ответ на: комментарий от Bfgeshka

Я ненавижу рептилоидов

Что я конкретно тебе сделал?

her_s_gory ★★
()
Ответ на: комментарий от cobold

As expected, Micron is abandoning its consumer business due to reallocation of its 3D NAND and DRAM output and production capacity to enterprise-grade SSDs, high-bandwidth memory (HBM) for AI accelerators, and server-grade memory modules.

https://www.tomshardware.com/pc-components/dram/micron-is-killing-crucial-ssds-and-memory-in-ai-pivot-company-refocuses-on-hbm-and-enterprise-customers

One ★★★★★
()

Поменялась надпись на этикетке и цена. Что-то еще поменяется?

imul ★★★★★
()
Ответ на: комментарий от firkax

Не выдумывай, не было такого. Никакой разницы между говорящими эти две аббревиатуры не было

вот именно. Как только появились эти LLM, и стали их раскручивать, никакого отторжения термина «ИИ» не было. Оно было в 80х, когда первая ИИ зима наступила. А в 2020х коммерцоидное дурачьё и окучиваемые ими дебилы либо забыло про 80е, либо никогда не знало и не хотело знать, что вообще в истории было.

seiken ★★★★★
()
Ответ на: комментарий от goingUp

как было после майнинга с видео

В какой-то момент их пачками продавали на озоне, но я так и не решился покупать обжаренную видеокарту, пусть и даже по очень низкой цене.

Leupold_cat ★★★★★
()
Ответ на: комментарий от realloc

Проблема только в том, что SaaS’ы ещё не достигли того масштаба, чтобы вытеснить локальные инструменты. Иначе бы macOS давно превратился в iPadOS.

А локальное хранилище уже давно страдает в потребительском сегменте. Каждый день кто-нибудь теряет гигабайты своих данных.

kaldeon
()
Последнее исправление: kaldeon (всего исправлений: 1)
Ответ на: комментарий от One

Так это не слова представителя микрона, а такие же как у меня выше теоретизирования журналиста

cobold ★★★★★
()
Ответ на: комментарий от kaldeon

И решение, кажется, не в том, чтобы быть centralization-only или local-only. Оба варианта имеют свои недостатки. Взаимовыгодное решение в том, чтобы минимизировать пропасть между ними.

kaldeon
()

Всякое было на рынке компьютерного железа, но чтобы ликвидировать гражданский сегмент в пользу корпоративных покупателей…

Ну дык все…, они потренировались на гражданском сегменте за деньги гражданского сегмента и более гражданский сегмент «ненужОн», т.к. денег у гражданского сегмента уже особо не осталось, деньги давно перетекли к корпоратам, на том капилизЬм и стоит собственно…

Sm0ke85
()
Ответ на: комментарий от goingUp

Но ничо, завтра лопнет, будем памятью обкладывать сортир вместо плитки, как было после майнинга с видео

Вот только лопнувший пузырь не обязательно свидетельствует о том, что на гражданский рынок хлынет «бесплатная» память, вполне может выйти так. что она хлынет на корпоратский рынок, который придумает как ее монетизировать через сервисы, услуги и т.д.

Заметь, нераспроданные товары частенько просто под каток пускают, лишь бы «излишне дешевым товаром не насытить рынок», ибо спрос тогда может упасть на долго…

Sm0ke85
()
Ответ на: комментарий от realloc

P.S. Данные свои, естественно, хранить там же, в надёжном ЦОДе.

Под присмотром ЦРУ, чтобы их не украли.

Chiffchaff
()
Ответ на: комментарий от realloc

Потребители должны сидеть на тонких клиентах/мобилках и потреблять SaaS по подпискам в облаках. Всё логично.

Так-то решение логичное. Все деньги ринулись в сферу ИИ, там все скупают акции друг у друга, задирая их стоимость до небес.

Обычным пользователям на этом празднике жизни делать нечего. Дома кластер для обучения ИИ не построишь при всём желании.

А на подножку ИИ поезда пытаются вскочить все корпорации, и реальные деньги сейчас там.

Когда это лопнет, всё вернётся на круги своя. А когда лопнет - ну кто ж знает. Вангую, что в первом-втором квартале 2026.

Chiffchaff
()
Ответ на: комментарий от Bfgeshka

И что ужасно — у каждого в голове свои рептилоиды.

mark1
()
Ответ на: комментарий от Chiffchaff

Вангую, что в первом-втором квартале 2026.

Что-то ты излишне пессимистичен. Пока вроде стагнации в темпах развития или возможностях не наблюдается, чтобы говорить о том, что мы выходим на плато. Пока что то одна, то другая контора выпускают новые LLM опережающие предыдущие.

Я бы закинул удочку куда-то в 2027 г., но тоже не факт. Может будет новый виток развития или применимости, что увеличит востребованность LLM.

kma21 ★★★★★
()
Ответ на: комментарий от Chiffchaff

Там наметился выход из тоннеля:

Суть продвигаемого группой новшества — уход от парадигмы генерации токен за токеном через расширение семантического окна для каждого очередного этапа. Вместо подбора очередной скалярной величины (токена) в зависимости от ограниченного числа предыдущих Чэньцзэ Шао с коллегами предлагают предсказывать целый вектор, составленный из нескольких таких токенов. Таким образом, фраза на естественном языке моделируется нейросетью не как цепочка дискретных фрагментов (условно, отдельных слов), но как поток взаимоувязанных векторов. Достоинство такого метода — не только в совершенствовании семантики генерируемого текста, но и в сокращении числа уходящих на это операций: если в единичный вектор упаковываются K токенов, то количество шагов, необходимых для формирования ответа на операторский запрос, в среднем сокращается в те же самые K раз.

Типичный словарь сегодняшней авторегрессионной БЯМ не превышает 256 тыс. токенов, и это фактически аппаратно-обусловленный предел. Если расширять число токенов, делая их не отдельными словами и их частями, а семантическими единицами (словосочетаниями, целыми фразами), размер словаря экспоненциально разбухнет, и современные компьютеры с его обработкой не сладят: Гелсингер недаром ставит на квантовые вычисления! Однако если удастся обеспечить (почти) взаимно однозначное соответствие семантических единиц векторам — так, чтобы те, как и токены, с лёгкостью «распаковывались» обратно в означаемые ими фразы, — можно ограничиться куда меньшим объёмом векторных операций, да и галлюцинации по понятным причинам возникать в таком случае будут реже. В статье приведён такой пример: фраза «The cat sat on the mat» кодируется T токенами (в данном случае — шестью, причём «The» и «the» — разными), но она же может быть представлена двумя векторами (K = 2): «The cat sat» и «on the mat». Длина обрабатываемой последовательности сокращается тем самым в T/K раз, т. е. в данном случае втрое, и, хотя каждое действие выходит более сложным — обрабатывать придётся не скаляры, а векторы, — специализированные на ИИ-задачах вычислители с векторными операциями справляются очень даже хорошо. И поскольку нейросеть обучается выстраивать цепочки не полуабстрактных токенов, а семантически насыщенных векторов, результаты выходят более чем достойные — при ощутимом снижении требований модели к «железу». Да, доведение идеи CALM до ума потребует изрядных усилий — выработки эффективной организации открытого (т. е. не конечного) словаря для начала. Но если сравнивать с теми затратами, что необходимы для выведения тех же квантовых вычислителей на потребные для обработки современных БЯМ характеристики, у подхода группы Чэньцзэ Шао явно больше шансов воплотиться в жизнь первым.

tiinn ★★★★★
()

Всякое было на рынке компьютерного железа, но чтобы ликвидировать гражданский сегмент в пользу корпоративных покупателей…

Вы излишне драматизируете - это обычная практика отсекания низкопрофильных активов и увеличение влияния в более выгодном секторе. Из историй подобного в прошлом - переход Cisco исключительно в бизне сегмент и прекращение выпуска потребительской техники. А HP вообще решила разделиться на две компании - собственно потребительская HP и её бизнес сектор HPE.

Так что всё идёт обычным путём. Увеличение доли HBM в бизнес секторе вполне возможно приведёт к полному вытеснению DRAM на потребительском рынке - или медленная и маленькая NAND для ноутбуков или большая и быcтрая HBM для рабочих станций.

VIT ★★
()
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)