佐治亚理工学院利用人工智能开发新的数字天线阵列边缘计算

2023-09-04  

佐治亚理工学院的研究人员开发了一种新方法,可以在天线子阵列附近,更接近数据生成位置对数据进行智能处理。


该研究结合了机器学习、现场可编程门阵列(FPGA)、图形处理单元(GPU)和新的射频图像处理算法等技术,简化了雷达信号的模块化处理,以减少处理时间和成本。 这些多达两个或三个数量级的效率改进,可以实现对射频图像数据的实时分析,这些数据的来源包括潜在的敌方和冲过来的超速汽车等。


该研究已在 16 数字天线阵列上进行了测试,由DARPA资助。虽然该项目迄今为止专注于对大量数据的实时成像操作,但它支持也由相控阵完成的传统波束形成操作。


佐治亚理工学院首席研究工程师 Ryan Westafer 表示:“我们的目标是提前处理所有原始数据。我们致力于管理高维数据并实时提取特征。 从自动驾驶汽车到无人机,数据源如此之多,我们无法共享所有这些原始数据源。 我们需要在本地分析数据并仅共享相关特征的信息。”


Westafer 表示,由于数百甚至数千个子阵列每秒可能生成 TB 级数据,这种“边缘智能”可以实时提取所需信息,使国防和交通能够在需要时立即获取重要细节,无需等待后端服务器处理。


佐治亚理工学院博士 Alex Saad-Falcon 指出:“经典方法以模拟格式处理数据,只选择庞大信息流中的某些组成部分,以便在需要时进行数字化。”


“我们希望将所有数据数字化,然后卸载较小的数字部分进行共享。这为天线阵列算法设计人员提供了更大的灵活性。在数字领域创建算法要容易得多,因为你可以用代码编写算法,而在模拟领域,你必须设计电路并构建它。这也有利于条件变化时的重新编程。”


FPGA 和 GPU 对于佐治亚理工学院的模块化 TRIAD 方法至关重要。 FPGA 具有低功耗和高处理速度,位于天线子阵列上的模数转换器附近。 在图形处理单元 (GPU) 的帮助下,它们处理数据,快速将其发送到 CPU,在 CPU 中聚合来自其他子阵列的信息。


作为该项目的一个关键特点,GTRI 研究人员与佐治亚理工学院电气与计算机工程学院 (ECE) 的学术研究人员合作,利用 SoloPulse,这是一种专为合成孔径雷达 (SAR) 生成的射频图像而设计的新型阵列处理算法。


“该算法提供了来自阵列附近不同点的能量估计。”Saad-Falcon解释道。 “这让你能够生成图像,尽管你对实际来源存在一些不确定性。 目标是训练机器学习模型以减少这种不确定性,或利用机器学习预测源位置。”


数字域中的编程可以利用张量,张量是多线性代数实体,用标量和向量描述对象之间的关系。 利用张量运算还允许与深度神经网络等机器学习算法共享数据表示,这些算法可以在每次收到新数据时可以学习改进操作。


Saad-Falcon 说:“你将数据汇集到新的人工智能张量运算中,并将其捆绑在一起,最后你会得到检测结果,某种人类可操作的最终结果。整个想法是,因为你以与这些张量运算相同的格式构建传统算法和机器学习算法,所以可以有效地将它们链接在一起并获得其他方式无法获得的加速。”


除了加速数据处理之外,使用 FPGA 和 GPU 芯片还有助于节省功耗,这对于移动应用至关重要。“阵列上的计算预算有限,因此您需要智能地分配计算并使用一种算法来最有效地从信号中提取你想要的信息,”他说。“目前业界许多不同的应用都对此感兴趣。”


该项目的部分目标是演示处理 16个阵列接收到的雷达脉冲。 研究人员在实验室的转盘上使用移动发射器来评估 TRIAD 的成像能力。 “我们可以立即看到结果,并且从发射器到屏幕刷新的总延迟约为 20 毫秒——比人眼看到的要快。”


该项目于 2022 年 12 月结束,研究人员目前正在研究该技术的其他潜在应用。 可能的用途之一是共享感知,它可以在自动驾驶汽车网络中应用,以满足商业和国防需求。


文章来源于:电子工程世界    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。