Para BMS, autobús, cable industrial, de instrumentación.

Ao rematar o festival de primavera, a emoción en torno a Deepseek segue sendo forte. As recentes vacacións destacaron un significativo sentido da competencia dentro da industria da tecnoloxía, con moitos discutindo e analizando este "bagre". Silicon Valley está experimentando un sentido de crise sen precedentes: os defensores da fonte aberta están a expresar de novo as súas opinións e incluso Openai está a reevaluar se a súa estratexia de código pechado foi a mellor opción. O novo paradigma de menores custos computacionais provocou unha reacción en cadea entre xigantes de chip como nvidia, o que levou a rexistrar perdas de valor de mercado dun só día na historia do mercado de accións estadounidenses, mentres que as axencias gobernamentais están a investigar o cumprimento dos chips empregados por DeepSeek. En medio de revisións mixtas de Deepseek no exterior, no país, está experimentando un crecemento extraordinario. Despois do lanzamento do modelo R1, a aplicación asociada viu un aumento do tráfico, o que indica que o crecemento dos sectores das aplicacións impulsará o ecosistema AI. O aspecto positivo é que Deepseek ampliará as posibilidades de aplicación, suxerindo que depender en ChatGPT non será tan caro no futuro. Este cambio reflectiuse nas actividades recentes de Openai, incluída a subministración dun modelo de razoamento chamado O3-Mini para liberar aos usuarios en resposta a DeepSeek R1, así como de actualizacións posteriores que fixeron pública a cadea de pensamento de O3-Mini. Moitos usuarios no exterior expresaron o seu agradecemento a DeepSeek por estes desenvolvementos, aínda que esta cadea de pensamento serve de resumo.
Optimisticamente, é evidente que Deepseek está unificando aos xogadores domésticos. Co seu foco na redución dos custos de formación, varios fabricantes de chip ascendentes, provedores de nube intermedia e numerosas startups únense activamente ao ecosistema, aumentan a eficiencia de custos para o uso do modelo DeepSeek. Segundo os traballos de DeepSeek, a formación completa do modelo V3 require só 2,788 millóns de horas de GPU H800, e o proceso de formación é altamente estable. A arquitectura MOE (Mixture of Experts) é crucial para reducir os custos previos ao adestramento nun factor de dez en comparación con LLAMA 3 con 405 millóns de parámetros. Actualmente, V3 é o primeiro modelo recoñecido publicamente que demostra unha escasa tan alta en MOE. Ademais, o MLA (atención de varias capas) funciona sinerxicamente, particularmente en aspectos de razoamento. "Canto máis escaso sexa o MOE, maior é o tamaño do lote necesario durante o razoamento para utilizar plenamente o poder computacional, sendo o tamaño do kvcache o factor limitante clave; o MLA reduce significativamente o tamaño de KVCache", observou un investigador da tecnoloxía Chuanjing nunha análise para a revisión da tecnoloxía AI. En xeral, o éxito de DeepSeek reside na combinación de varias tecnoloxías, non só unha soa. Os privilexios da industria eloxian as capacidades de enxeñaría do equipo de DeepSeek, observando a súa excelencia en formación paralela e optimización de operadores, obtendo resultados innovadores ao perfeccionar todos os detalles. O enfoque de fontes abertas de DeepSeek alimenta aínda máis o desenvolvemento global de grandes modelos, e prevese que se modelos similares se expandan en imaxes, vídeos e moito máis, isto estimulará significativamente a demanda en toda a industria.
Oportunidades para servizos de razoamento de terceiros
Os datos indican que desde o seu lanzamento, DeepSeek acumulou 22,15 millóns de usuarios activos diarios (DAU) dentro de só 21 días, logrando o 41,6% da base de usuarios de Chatgpt e superando 16,95 millóns de usuarios activos diarios de Doubao, converténdose así na aplicación de maior crecemento a nivel mundial, ocupando a tenda App de Apple en 157 países/rexións. Non obstante, mentres os usuarios acudiron en pistas, os ciber hackers atacaron implacablemente a aplicación DeepSeek, provocando unha tensión importante nos seus servidores. Os analistas da industria cren que isto débese parcialmente a DeepSeek que implementa tarxetas para a formación, sen carecer de poder computacional suficiente para o razoamento. Unha revisión informativa da industria informativa da tecnoloxía AI, "Os problemas frecuentes do servidor pódense resolver facilmente cobrando taxas ou financiamento para mercar máis máquinas; en última instancia, depende das decisións de Deepseek". Isto presenta unha compensación para centrarse na tecnoloxía fronte á produción. Deepseek confiou en gran medida na cuantificación cuántica para o autosuficiencia, recibindo pouco financiamento externo, obtendo unha presión de fluxo de caixa relativamente baixa e un ambiente tecnolóxico máis puro. Actualmente, á vista dos mencionados problemas, algúns usuarios están a instar a Deepseek nas redes sociais para elevar os limiares de uso ou introducir funcións de pago para mellorar o confort do usuario. Ademais, os desenvolvedores comezaron a utilizar a API oficial ou API de terceiros para a optimización. Non obstante, a plataforma aberta de DeepSeek anunciou recentemente, "os recursos do servidor actuais son escasos e suspendeuse as recargas do servizo API".
Sen dúbida, isto abre máis oportunidades para os vendedores de terceiros no sector de infraestruturas da IA. Recentemente, numerosos xigantes nacionais e internacionais lanzaron o modelo de DeepSeek: os xigantes de Overseas Microsoft e Amazon foron os primeiros en unirse a finais de xaneiro. O líder doméstico, Huawei Cloud, fixo o primeiro movemento, lanzando os servizos de razoamento de DeepSeek R1 e V3 en colaboración co fluxo baseado en silicio o 1 de febreiro. Os informes de AI Technology Review indican que os servizos de Flow baseados en silicio viron unha afluencia de usuarios, efectivamente "estrelando" a plataforma. As tres grandes empresas tecnolóxicas (BAT (Baidu, Alibaba, Tencent) e Bytedance) emitiu ofertas de baixo custo, tempo limitado a partir do 3 de febreiro, que recorda ao vendedor do vendedor da nube do ano pasado acendido polo lanzamento do modelo V2 de DeepSeek, onde DeepSeek comezou a ser denominado "Price Butcher". As accións frenéticas dos vendedores da nube fan eco dos fortes vínculos entre Microsoft Azure e Openai, onde en 2019, Microsoft realizou un investimento substancial de 1 mil millóns de dólares en Openai e obtivo beneficios despois do lanzamento de Chatgpt en 2023. Non obstante, esta estreita relación comezou a desfacerse despois de que o llama de orixe aberta, permitiu a outros vendedores de Microsoft o Ecoje Ecoxto con Meta Openced Llama. Neste caso, DeepSeek non só superou a ChatGPT en termos de calor do produto, senón que tamén introduciu modelos de código aberto tras a versión O1, similar á emoción que rodea o renacemento de LLAMA de GPT-3.
En realidade, os provedores de nube tamén se posicionan como pasarelas de tráfico para aplicacións de IA, o que significa que a profundización dos vínculos cos desenvolvedores tradúcese a vantaxes preventivas. Os informes indican que Baidu Smart Cloud tiña máis de 15.000 clientes que utilizaban o modelo DeepSeek a través da plataforma Qianfan o día de lanzamento do modelo. Ademais, varias empresas máis pequenas ofrecen solucións, incluíndo fluxo baseado en silicio, tecnoloxía Luchen, tecnoloxía Chuanjing e varios provedores de infra de IA que lanzaron soporte para modelos DeepSeek. A Revisión de Tecnoloxía AI aprendeu que as oportunidades de optimización actuais para os despregamentos localizados de DeepSeek existen principalmente en dúas áreas: unha está optimizando para as características de escaseza do modelo MOE mediante un enfoque de razoamento mixto para implementar o modelo MOE de 671 mil millóns de parámetros localmente mentres utiliza a inferencia híbrida GPU/CPU. Ademais, a optimización de MLA é vital. Non obstante, os dous modelos de DeepSeek aínda afrontan algúns retos na optimización do despregamento. "Debido ao tamaño do modelo e a numerosos parámetros, a optimización é realmente complexa, especialmente para os despregamentos locais onde conseguir un equilibrio óptimo entre o rendemento e o custo será un reto", afirmou un investigador da tecnoloxía Chuanjing. O obstáculo máis significativo reside na superación dos límites da capacidade de memoria. "Adoptamos un enfoque de colaboración heteroxénea para utilizar plenamente as CPU e outros recursos computacionais, colocando só as partes non compartidas da Matriz MOE escasa en CPU/DRAM para o seu procesamento mediante operadores de CPU de alto rendemento, mentres que as densas porcións permanecen no GPU", explicou ademais. Os informes indican que o marco de código aberto de Chuanjing KTransformers inxecta principalmente varias estratexias e operadores na implementación de transformadores orixinais a través dunha plantilla, aumentando significativamente a velocidade de inferencia usando métodos como CUDAPHAPH. Deepseek creou oportunidades para estas startups, xa que os beneficios de crecemento están a facerse evidentes; Moitas firmas reportaron un crecemento notable do cliente despois de lanzar a API de DeepSeek, recibindo consultas de clientes anteriores que buscan optimizacións. Os privilexiados da industria observaron: "No pasado, os grupos de clientes un tanto establecidos foron a miúdo bloqueados nos servizos normalizados de empresas máis grandes, moi ligadas polas súas vantaxes de custos debido á escala. Non obstante, despois de completar o despregamento de Deepseek-R1/V3 antes do festival de primavera, recibimos de súpeto as solicitudes de cooperación de varios clientes coñecidos", e incluso anteriormente dormidos nos seus clientes de Deepseek. " Na actualidade, parece que DeepSeek está a facer un rendemento de inferencia de modelos cada vez máis crítico e, cunha adopción máis ampla de grandes modelos, isto continuará influíndo significativamente no desenvolvemento na industria de AI infra. Se un modelo de nivel profundo podería despregarse localmente a un custo baixo, axudaría moito aos esforzos de transformación dixital do goberno e das empresas. Non obstante, os retos persisten, xa que algúns clientes poden ter expectativas altas sobre as grandes capacidades do modelo, polo que é máis evidente que o equilibrio do rendemento e o custo faise vital no despregamento práctico.
Para avaliar se Deepseek é mellor que ChatGPT, é esencial comprender as súas diferenzas clave, fortalezas e casos de uso. Aquí tes unha comparación completa:
Característica/aspecto | Deepseek | Chatgpt |
---|---|---|
Propiedade | Desenvolvido por unha empresa chinesa | Desenvolvido por Openai |
Modelo de orixe | De código aberto | Propietario |
Custo | Libre de usar; Opcións de acceso API máis baratas | Subscrición ou prezos de pago por uso |
Personalización | Altamente personalizable, permitindo aos usuarios axustar e construír nel | Personalización limitada dispoñible |
Rendemento en tarefas específicas | Sobresae en certas áreas como a análise de datos e a recuperación de información | Versátil cun forte rendemento en escritura creativa e tarefas de conversación |
Soporte lingüístico | Foro foco na lingua e na cultura chineses | Soporte de idioma amplo pero centrado nos Estados Unidos |
Custo de formación | Menores custos de formación, optimizados para a eficiencia | Maiores custos de formación, requirindo recursos computacionais substanciais |
Variación de resposta | Pode ofrecer respostas diferentes, posiblemente influenciadas polo contexto xeopolítico | Respostas consistentes en función dos datos de formación |
Audiencia obxectivo | Dirixido a desenvolvedores e investigadores que queiran flexibilidade | Dirixido a usuarios xerais que buscan capacidades de conversación |
Usa casos | Máis eficiente para a xeración de códigos e tarefas rápidas | Ideal para xerar texto, responder consultas e participar no diálogo |
Unha perspectiva crítica sobre "perturbar nvidia"
Na actualidade, ademais de Huawei, varios fabricantes de chips domésticos como Moore Threads, Muxi, Biran Technology e Tianxu Zhixin tamén se están adaptando aos dous modelos de DeepSeek. Un fabricante de chip dixo a AI Technology Review, "A estrutura de DeepSeek demostra a innovación, aínda que segue sendo unha LLM. A nosa adaptación a DeepSeek está centrada principalmente en razoar as aplicacións, facendo que a implementación técnica sexa bastante sinxela e rápida". Non obstante, o enfoque MOE require maiores demandas en termos de almacenamento e distribución, xunto coa garantía de compatibilidade ao implementarse con chips domésticos, presentando numerosos retos de enxeñaría que precisan resolución durante a adaptación. "Actualmente, o poder computacional doméstico non coincide con NVIDIA en usabilidade e estabilidade, requirindo a participación de fábrica orixinal para a configuración do ambiente de software, a solución de problemas e a optimización de rendemento fundacional", dixo un practicante da industria baseado na experiencia práctica. Simultaneamente, "Debido á gran escala de parámetros de DeepSeek R1, o poder computacional doméstico require máis nodos para a paralelización. Ademais, as especificacións de hardware domésticas aínda están algo atrás; por exemplo, o Huawei 910B actualmente non pode soportar a inferencia FP8 introducida por DeepSeek". Un dos momentos máis destacados do modelo DeepSeek V3 é a introdución dun marco de adestramento de precisión mixta FP8, que foi validado de xeito eficaz nun modelo extremadamente grande, marcando un logro significativo. Anteriormente, xogadores importantes como Microsoft e NVIDIA suxeriron un traballo relacionado, pero as dúbidas perseguen dentro da industria sobre a viabilidade. Enténdese que en comparación con Int8, a vantaxe principal de FP8 é que a cuantificación post-formación pode conseguir unha precisión case sen perda ao tempo que aumentan significativamente a velocidade de inferencia. Ao comparar co FP16, FP8 pode realizar ata dúas veces a aceleración no H20 de NVIDIA e máis de 1,5 veces a aceleración no H100. Destacable, a medida que as discusións sobre a tendencia do poder computacional doméstico, ademais dos modelos domésticos, gañan forza, as especulacións sobre se a nvidia podería ser perturbada e se o foso de Cuda podería ser evitado, está cada vez máis predominante. Un dato innegable é que Deepseek provocou unha caída substancial do valor de mercado de Nvidia, pero este cambio plantexa cuestións sobre a integridade de poder computacional de alta gama de Nvidia. As narracións anteriormente aceptadas sobre a acumulación computacional impulsada polo capital están a ser desafiadas, pero segue sendo difícil que Nvidia sexa substituída completamente nos escenarios de adestramento. A análise do uso profundo de DeepSeek de CUDA demostra que a flexibilidade, como usar SM para comunicación ou manipular directamente as tarxetas de rede, non é factible para que as GPU habituais se acomoden. Os puntos de vista da industria subliñan que o foso de Nvidia abarca todo o ecosistema CUDA en vez de só CUDA, e as instrucións PTX (Execución de fíos paralelos) que emprega Deepseek aínda forman parte do ecosistema CUDA. "A curto prazo, o poder computacional de Nvidia non se pode evitar; isto é especialmente claro na formación; non obstante, o despregamento de tarxetas domésticas para o razoamento será relativamente máis sinxelo, polo que o progreso será máis rápido. A adaptación de tarxetas domésticas céntrase principalmente na inferencia; un analista aínda se xestionou para adestrar un modelo de tecnoloxía de profundidade. En xeral, desde o punto de vista da inferencia, as circunstancias son alentadoras para os chips de modelos domésticos. As oportunidades para os fabricantes de chip domésticos dentro do ámbito da inferencia son máis evidentes debido aos requisitos excesivamente altos da formación, que dificultan a entrada. Os analistas afirman que simplemente aproveitar as tarxetas de inferencia domésticas son suficientes; Se é necesario, a adquisición dunha máquina adicional é factible, mentres que os modelos de formación supoñen retos únicos: xestionar un número maior de máquinas pode converterse en gravoso e as taxas de erro máis altas poden afectar negativamente os resultados do adestramento. O adestramento tamén ten requisitos específicos de escala de clúster, mentres que as demandas de clústers de inferencia non son tan rigorosas, facilitando así os requisitos da GPU. Actualmente, a actuación da tarxeta H20 única de Nvidia non supera a de Huawei ou Cambrian; A súa forza reside na agrupación. Con base no impacto global no mercado de enerxía computacional, o fundador de Luchen Technology, You Yang, sinalado nunha entrevista con AI Technology Review, "Deepseek pode prexudicar temporalmente o establecemento e aluguer de ultra-grande formación computacional clusters. A longo prazo, por suposto, reducindo significativamente os custos asociados a un gran modelo de formación, e as aplicacións, a demanda do mercado, supón un condutor. demanda sostida no mercado de enerxía computacional ". Ademais, "a maior demanda de Deepseek de razoamento e servizos de axuste é máis compatible co panorama computacional doméstico, onde as capacidades locais son relativamente débiles, axudando a mitigar os residuos do establecemento post-cluster de recursos ociosos; isto crea oportunidades viables para os fabricantes en diferentes niveis do ecosistema computacional doméstico." Luchen Technology colaborou con Huawei Cloud para lanzar os servizos de razoamento da serie R1 DeepSeek R1 e servizos de imaxe en nube baseados no poder computacional doméstico. Yang expresou o optimismo sobre o futuro: "Deepseek inculca confianza nas solucións producidas no país, fomentando un maior entusiasmo e investimento en capacidades computacionais domésticas para avanzar".

Conclusión
Se Deepseek é "mellor" que o chatgpt depende das necesidades e obxectivos específicos do usuario. Para tarefas que necesitan flexibilidade, baixo custo e personalización, Deepseek pode ser superior. Para a escritura creativa, a investigación xeral e as interfaces de conversación fácil de usar, ChatGPT pode levar o liderado. Cada ferramenta serve para diferentes fins, polo que a elección dependerá enormemente do contexto no que se usan.
Cables de control
Sistema de cableado estruturado
Rede e datos, cable de fibra óptica, cable de parche, módulos, placa frontal
16 de abril-18, 2024 Enerxía de Oriente Medio en Dubai
16 de abril-18, 2024 Securika en Moscova
9 de maio de 2024 Novos produtos de lanzamento de produtos e tecnoloxías en Shanghai
22 de outubro-25 de outubro, 2024 Seguridade China en Pequín
19 de novembro ao 20 de novembro de 2024 KSA conectado
Tempo de publicación: FEB-10-2025