Илон Мъск предоставил актуална информация както за напредъка на системата за автономно шофиране (FSD) на Tesla, така и за развитието на собствените AI чипове на компанията.
В скорошна дискусия за X, Илон Мъск предоставил някои актуализации относно пътната карта на Tesla за персонализирани силициеви чипове с изкуствен интелект, като изяснил производствения план за бъдещите чипове и предложил поглед към инженерната философия на Tesla, фокусирана върху първите принципи.
Илон пояснил, че новата фабрика на Samsung в Тейлър, Тексас, щяла да произвежда бъдещия чип AI6 , а не предстоящия чип AI5.
Илон разкрил, че в Tesla протичал дебат, който оспорвал интересна тенденция в хардуерната индустрия. Той разкрил, че инженерите по проектиране на чипове на Tesla все още не са били решили да използват новия индустриален стандарт High-Bandwidth Memory (HBM) за AI6, което предполагало, че за специфичните нужди на Tesla, по-евтината и по-конвенционална RAM памет е могла всъщност да е по-ефективният избор.
Потвърждението, че тексаският завод на Samsung щял да произвежда AI6, не е било новост - наскоро се е чуло за това, като Tesla преминала от Dojo към AI6 като основен чипсет за обучение . Това обаче е било потвърждение, че Tesla се стремяла да прехвърли цялото си производство навътре, дори ако нямало да произвежда чиповете сама, а щяла да извършва дизайнерската работа заедно със Samsung.
Въпреки че гигантският чип AI5 е бил следващият голям скок за хардуера за обучение и логически извод на Tesla, планът за неговия наследник, AI6, вече е бил в ход. Това щяло да помогне на Tesla да осигури огромния брой чипове, от които се нуждаела, не само за обучение, но и за вграждане във всеки един бъдещ продукт на Tesla и Optimus, който щял да се продава.
Отвъд пътната карта за производство, коментарите на Илон относно архитектурата на паметта били най-проницателни. Настоящият златен стандарт за високопроизводителни ускорители на изкуствен интелект е бил High-Bandwidth Memory (HBM) - вид RAM памет, която предлагала невероятно бързи скорости на трансфер на данни, позволявайки на процесора да осъществява достъп до параметрите на модела с минимално забавяне.
Въпреки че признавал, че HBM можел да е правилният избор, Илон също така обяснил, че това всъщност не е бил категоричният избор, който мнозина приемали за даденост, особено не и за случая с употребата на Tesla. Разсъжденията произтичали от развиващия се характер на невронните мрежи, които Tesla изграждала. С увеличаването на съотношението на общия брой параметри към активните или често използвани параметри, цената на единица полезна изчислителна мощност и изчислителната мощност на ват биха могли да са в полза на конвенционалната RAM памет.
Представете си масивен модел на изкуствен интелект като гигантска библиотека, която съдържала милиарди книги - общият брой параметри. За да изпълни конкретна задача, като например идентифициране на пешеходец, изкуственият интелект трябвало само да получи незабавен достъп до няколко специфични и подходящи книги (активните параметри). Стандартният за индустрията подход с HBM е бил като изграждането на по-малка библиотека с невероятно бърза система за търсене. Тя е била създадена единствено за бързина, ако се приемало, че е бил необходим достъп до много или всички книги много бързо.
Аргументът на Илон предлагал различен подход. С нарастването на моделите с изкуствен интелект на Тесла, библиотеката ставала астрономически огромна. Това не е била просто местна градска библиотека, ставало въпрос за митични библиотеки с размерите на Вавилонската кула. Въпросът тук е бил, че дори в огромна библиотека, все още се вадили само няколко ключови книги наведнъж за дадена задача. Това водело до изцяло различен набор от приоритети, фокусирани върху капацитета, цената и ефективността. По отношение на капацитета и цената, е могло да поберете повече обща RAM памет на платката, ако се използвало обикновена памет, а не HBM, и това е било далеч по-евтино. За модел с трилиони параметри, наличието на достатъчен капацитет за съхранение на цялата библиотека е било от първостепенно значение, а икономическата ефективност на обикновената RAM памет е било огромно предимство.
По отношение на ефективността, ако само малка част от параметрите са били активни едновременно, изключителната скорост на HBM можело просто да е прекалено висока. Цената на полезно изчисление и енергията, използвана за това изчисление, всъщност биха могли да бъдат по-добри с гигантски, по-евтин пул от конвенционална RAM памет.
Разбира се, винаги имало и трети избор.
Ако имате умерен брой книги, до които трябвало да получите достъп изключително бързо, и голям брой други книги, до които трябвало да получите достъп, но не толкова бързо, може би най-добрият вариант е бил да се използва хибриден подход. Това е било подобно на системата за кеширане в процесорите днес. Кешовете от по-ниско ниво съхранявали критичната информация, необходима за операциите, и по терминологията на Тесла, малък набор от HBM памет би могъл да прави точно това, а именно да съхранява критична за безопасността и редовно използвана информация в HBM паметта, докато всичко останало се записвало в конвенционалната RAM памет. Въпреки че окончателното решение за AI6 все още не е било взето, този дебат предлагал поглед към мисленето, основано на първите принципи, които движила Tesla.


Още от FSD новини
Илън Мъск отново загатва за Banish, Tesla FSD V14 ще осигури повече функционалност
Илън Мъск отново споменава функцията “Banish”, която ще позволи на Tesla да ви прибере на входа на магазина и сама да си намери място за паркиране.
Tesla предоставя FSD визуализации на Intel автомобили, докато се движат на заден ход
След софтуерна актуализация 2025.32.2, Tesla въвела значително подобрение за собствениците на по-стари модели автомобили, оборудвани с Intel Atom процесор (известен също като MCU 2) и ултразвукови сензори (USS).
Tesla FSD V14: 10x актуализация на параметрите, нови функции, издания през септември
Tesla FSD V14:10-кратно увеличени параметри, нови функции и септемврийски релиз.