Armazenamento impulsionado por IA continua a evoluir! A produção em massa da tecnologia PIM da Samsung está prestes a começar ou a contornar CPU e GPU para calcular diretamente

robot
Geração de resumo em curso

A IA está a remodelar o mercado de armazenamento com uma força sem precedentes, ao mesmo tempo que dá origem a novas tecnologias. Após o surgimento de “tecnologias negras” como HBF e H³, uma nova direção no campo do armazenamento começa a emergir.

De acordo com relatos da mídia, a Samsung Electronics planeja aplicar a tecnologia PIM (Processamento na Memória) na memória LPDDR5X. Atualmente, a Samsung está a colaborar com principais clientes no desenvolvimento da tecnologia PIM para LPDDR5X, com previsão de fornecer amostras na segunda metade deste ano. Além disso, as duas partes estão a explorar ativamente a aplicação da tecnologia PIM nas especificações da próxima geração, a LPDDR6.

PIM, sigla para Processing in Memory, significa gestão integrada de processamento. Esta tecnologia coloca unidades de cálculo (ALU) diretamente ao nível do armazenamento da memória. Os métodos tradicionais geralmente requerem a transferência de dados para a CPU ou GPU para processamento, enquanto o PIM executa cálculos diretamente na memória, com potencial para superar a “parede de armazenamento”.

Na recente palestra no “SEMICON Korea 2026” realizada na Coreia do Sul, Sun Gyo-min, responsável pela equipa de design de DRAM da Samsung Electronics, destacou a necessidade da tecnologia PIM, afirmando: “Atualmente, devido à insuficiência de largura de banda da memória, a IA não consegue explorar 100% do desempenho da GPU.” Na sua opinião, o PIM não só pode aumentar significativamente a largura de banda, mas também melhorar a eficiência energética.

Atualmente, a Samsung Electronics concluiu a validação tecnológica (PoC) de produtos como HBM-PIM e outros, entrando na fase de produtos comerciais, preparando-se para a produção em massa. O núcleo desta tecnologia é a série LPDDR, otimizada para smartphones e dispositivos de IA de ponta.

Além disso, a SK Hynix também está a investir em PIM. Este ano, na feira “CES 2026” nos EUA, a empresa apresentou várias inovações e tecnologias, incluindo o AiMX baseado na arquitetura PIM. A Shanghai Securities aponta que, para acelerar a implementação da IA e impulsionar o crescimento do fluxo de informação, os chips de armazenamento evoluíram de componentes comuns para produtos de valor central na indústria de IA. No futuro, através de avanços tecnológicos e colaboração ecológica, será possível construir uma competitividade central em armazenamento de IA.

A China Merchants Securities afirma que, como uma nova arquitetura de computação, a integração de armazenamento e processamento (存算一体) consiste na fusão completa de armazenamento e cálculo, com capacidade de processamento integrada na memória, permitindo cálculos matriciais bidimensionais e tridimensionais com uma nova arquitetura de alta eficiência. Com tecnologias de embalagem avançadas na era pós-Moore, novos dispositivos de armazenamento, entre outros, é possível superar efetivamente os limites da arquitetura von Neumann, elevando a eficiência de cálculo por ordens de magnitude. O PIM incorpora unidades de cálculo nos chips de memória, conferindo à própria memória uma capacidade de processamento, ideal para tarefas intensivas em dados, podendo melhorar significativamente a eficiência do processamento de dados e a relação de eficiência energética.

CITIC Securities afirma que, ao analisar a arquitetura de memória atual para computação, o desempenho do DRAM (“largura de banda” e “capacidade”) é o maior gargalo. Quanto maior o modelo treinado, maior a necessidade de capacidade de memória. Na inferência, quanto mais utilizadores simultâneos, maior a necessidade de largura de banda (“treinamento” é limitado pela “capacidade”, enquanto a inferência é limitada pela “largura de banda”). A atualização é urgente. Na era da IA, a atualização do armazenamento é essencial, e a “integração de armazenamento e cálculo” é uma tendência inevitável a longo prazo, sendo a “computação próxima da memória” (PNM) o caminho atualmente mais eficaz.

(Origem: Caixin)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar