请问目前装配到车上实现自动驾驶和一些智能化应用需要部署几个硬件神经网络。在实际应用时是否会考虑不同场景间加速器的调度使用。
请问目前装配到车上实现自动驾驶和一些智能化应用需要部署几个硬件神经网络。在实际应用时是否会考虑不同场景间加速器的调度使用。


您提到的问题,在AI芯片量产过程中,是必然要面对的问题。
每个模型的预测的前处理,后处理如果都需要DDR带宽的DMA来搬运,基本芯片是扛不住这么大的数据量。

2,模型的调度:
这块类似linux kenrel的调度策略。
芯片这块也要有非常好的流水线设计支持。再加上编译工具链的动态张量的调整,才能支撑巨量模型的调度。

在J2芯片方案的量产落地,以及对标了很多标称自己有很强AI能力的芯片。
最后表达一下自己个人的感受:
算法定义芯片才是AI芯片的正道,
我们在很多算法产品化的过程中,一直深刻感受到算力限制的痛苦,我们愿意非常Open的share我们在量产化落地的knowhow给到更多的算法同学,让中国的AI产业尽快脱离算力钳制的窘境。