電子產(chǎn)業(yè)一站式賦能平臺

PCB聯(lián)盟網(wǎng)

搜索
查看: 2080|回復: 1
收起左側

創(chuàng)龍帶您解密TI、Xilinx異構多核SoC處理器核間通訊

[復制鏈接]

678

主題

902

帖子

8293

積分

高級會員

Rank: 5Rank: 5

積分
8293
跳轉(zhuǎn)到指定樓層
樓主
發(fā)表于 2020-3-25 10:43:32 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
本帖最后由 peng85246 于 2020-3-25 11:16 編輯

一、什么是異構多核SoC處理器
顧名思義,單顆芯片內(nèi)集成多個不同架構處理單元核心的SoC處理器,我們稱之為異構多核SoC處理器,比如:
  • TI的OMAP-L138(DSP C674x + ARM9)、AM5708(DSP C66x + ARM Cortex-A15)SoC處理器等;
  • Xilinx的ZYNQ(ARM Cortex-A9 + Artix-7/Kintex-7可編程邏輯架構)SoC處理器等。
二、異構多核SoC處理器有什么優(yōu)勢
相對于單核處理器,異構多核SoC處理器能帶來性能、成本、功耗、尺寸等更多的組合優(yōu)勢,不同架構間各司其職,各自發(fā)揮原本架構獨特的優(yōu)勢。比如:
  • ARM廉價、耗能低,擅長進行控制操作和多媒體顯示;
  • DSP天生為數(shù)字信號處理而生,擅長進行專用算法運算;
  • FPGA擅長高速、多通道數(shù)據(jù)采集和信號傳輸。
同時,異構多核SoC處理器核間通過各種通信方式,快速進行數(shù)據(jù)的傳輸和共享,可完美實現(xiàn)1+1>2的效果。
三、常見核間通信方式
要充分發(fā)揮異構多核SoC處理器的性能,除開半導體廠家對芯片的硬件封裝外,關鍵點還在于核間通信的軟硬件機制設計,下面介紹幾種在TI、Xilinx異構多核SoC處理器上常見的核間通信方式。
  • OpenCL
OpenCL(全稱Open Computing Language,開放運算語言)是第一個面向異構系統(tǒng)通用目的并行編程的開放式、免費標準,也是一個統(tǒng)一的編程環(huán)境,便于軟件開發(fā)人員編寫高效輕便的代碼,而且廣泛適用于多核心處理器(CPU)、圖形處理器(GPU)、Cell類型架構以及數(shù)字信號處理器(DSP)等其他并行處理器,在能源電力、軌道交通、工業(yè)自動化、醫(yī)療、通信、軍工等應用領域都有廣闊的發(fā)展前景。
在異構多核SoC處理器上,OpenCL將其中一個可編程內(nèi)核視為主機,將其他內(nèi)核視為設備。在主機上運行的應用程序(即主機程序)管理設備上的代碼(內(nèi)核)的執(zhí)行,并且還負責使數(shù)據(jù)可用于設備。設備由一個或多個計算單元組成。比如,在TI AM5728異構多核SoC處理器中,每個C66x DSP都是一個計算單元。



OpenCL運行時,一般包含如下兩個組件
  • 主機程序創(chuàng)建和提交內(nèi)核以供執(zhí)行的API。
  • 用于表達內(nèi)核的跨平臺語言。
2.DCE
DCE(Distributed Codec Engine)分布式編解碼器引擎,是TI基于AM57x異構多核SoC處理器的視頻處理框架,提供的完整Gstreamer插件框架。
DCE由三部分硬件模塊組成,分別為MPU核心、IPU2核心以及IVA-HD硬件加速器,其主要功能如下:
MPU:基于ARM用戶空間Gstreamer應用,控制libdce模塊。libdce模塊在ARM RPMSG框架上實現(xiàn)與IPU2的IPC通信。
IPU2:構建DCE server,基于RPMSG框架與ARM實現(xiàn)通信,使用編解碼器引擎和幀組件控制IVA-HD加速器。
IVA-HD:實現(xiàn)視頻/圖像編解碼的硬件加速器。

3.IPC
IPC(Inter-Processor Communication)是一組旨在促進進程間通信的模塊。通信包括消息傳遞、流和鏈接列表。這些模塊提供的服務和功能可用于異構多核SoC處理器中ARM和DSP核心之間的通信。


如下為TI異構多核SoC處理器常用的核間通信方式的優(yōu)缺點比較:

方式
優(yōu)點
缺點
OpenCL
  • 易于在設備之間移植
  • 無需了解內(nèi)存架構
  • 無需擔心MPAX和MMU
  • 無需擔心一致性
  • 無需在ARM和DSP之間構建/配置/使用IPC
  • 無需成為DSP代碼、架構或優(yōu)化方面的專家
  • 無法控制系統(tǒng)內(nèi)存布局等以處理優(yōu)化的DSP代碼
DEC
  • 加速多媒體編解碼處理
  • 在與Gstreamer和TI Gstreamer插件連接時簡化多媒體應用程序的開發(fā)
  • 不適合非編解碼算法
  • 需要努力添加新的編解碼算法
  • 需要DSP編程知識
IPC
  • 完全控制DSP配置
  • 能夠進行DSP代碼優(yōu)化
  • 在多個TI平臺上支持相同的API
  • 需要了解內(nèi)存架構
  • 需要了解DSP配置和編程
  • 僅限于小型消息(小于512字節(jié))
  • TI專有API

4.AXI
AXI(Advanced eXtensible Interface)是由ARM公司提出的一種總線協(xié)議,Xilinx從6系列的FPGA開始對AXI總線提供支持,目前使用AXI4版本。


ZYNQ有三種AXI總線:
(A)AXI4:(For high-performance memory-mapped requirements.)主要面向高性能地址映射通信的需求,是面向地址映射的接口,允許最大256輪的數(shù)據(jù)突發(fā)傳輸。
(B)AXI4-Lite:(For simple, low-throughput memory-mapped communication.)是一個輕量級的地址映射單次傳輸接口,占用很少的邏輯單元。
(C)AXI4-Stream:(For high-speed streaming data.)面向高速流數(shù)據(jù)傳輸,去掉了地址項,允許無限制的數(shù)據(jù)突發(fā)傳輸規(guī)模。
AXI協(xié)議的制定是要建立在總線構成之上的。因此,AXI4、AXI4-Lite、AXI4-Stream都是AXI4協(xié)議。AXI總線協(xié)議的兩端可以分為分為主(master)、從(slave)兩端,他們之間一般需要通過一個AXI Interconnect相連接,作用是提供將一個或多個AXI主設備連接到一個或多個AXI從設備的一種交換機制。
AXI Interconnect的主要作用是:當存在多個主機以及從機器時,AXIInterconnect負責將它們聯(lián)系并管理起來。由于AXI支持亂序發(fā)送,亂序發(fā)送需要主機的ID信號支撐,而不同的主機發(fā)送的ID可能相同,而AXI Interconnect解決了這一問題,他會對不同主機的ID信號進行處理讓ID變得唯一。
AXI協(xié)議將讀地址通道、讀數(shù)據(jù)通道、寫地址通道、寫數(shù)據(jù)通道、寫響應通道分開,各自通道都有自己的握手協(xié)議。每個通道互不干擾卻又彼此依賴。這是AXI高效的原因之一。

四、IPC核間通信開發(fā)
下面以創(chuàng)龍AM57x(AM5728/AM5708)評估板源碼為例,講解IPC核間通信開發(fā)。




  • 開發(fā)環(huán)境說明
  • RTOS Processor-SDK 04.03.00.05。
  • Linux-4.9.65/Linux-RT-4.9.65內(nèi)核
  • IPC開發(fā)包版本3.47.01.00。
IPC(Inter-Processor Communication)提供了一個與處理器無關的API,可用于多處理核心環(huán)境中的核間通信、與同一處理核心上的其他線程的通信(進程間)和與外圍設備(設備間)的通信。IPC定義了以下幾種通信組件,如下表所示,這些通信組件的接口都有以下幾個共同點:
Notify
MessageQ
ListMp
GateMp
HeapBufMp
FrameQ(通常用于raw視頻數(shù)據(jù))
HeapMemMp
RingIO(通常用于音頻數(shù)據(jù))
  • 所有IPC通信組件的接口都由系統(tǒng)規(guī)范化命名。
  • 在HLOS端,所有IPC接口需要使用_setup()初始化,使用_destroy()銷毀相應的IPC Module;部分初始化還需要提供配置接口_config()。
  • 所有的實例化都需要使用_create()來創(chuàng)建,使用_delete()來刪除。
  • 在更深層次使用IPC時需要用_open()來獲取handle,在結束使用IPC時需要用_close()來回收handle。
  • IPC的配置多數(shù)都是在SYS/BIOS下完成配置的,對于支持XDC配置的則可以使用靜態(tài)配置方法。
  • 每個IPC模塊都支持trace信息用于調(diào)試,而且支持不同的trace等級。
  • 部分IPCs提供了專門的APIs來用于提取分析信息。
​​​​​​​
本小節(jié)主要演示MessageQ通信組件的運用。

2.MessageQ機制
  • MessageQ模塊特點
  • 支持結構化發(fā)送和接收可變長度消息。
  • 一個MessageQ都將有一個讀者,多個編寫者。
  • 既可用于同構和異構多處理器消息傳遞,也可用于線程之間的單處理器消息傳遞。
  • 功能強大,簡單易用。
​​​​​​​

2.MessageQ機制代碼解釋
MessageQ的傳輸,主要區(qū)分為發(fā)送者,跟接收者,下述為常用API的功能描述:
  • MessageQ_Handle MessageQ_create (String name, MessageQ_Params *params):創(chuàng)建消息隊列,創(chuàng)建隊列名稱將成為后面MessageQ_open的依據(jù)。
  • Int MessageQ_open(String name , MessageQ_QueueId * queueId):打開創(chuàng)建的消息隊列,獲取隊列ID值(ID值應為唯一值,所以創(chuàng)建消息隊列時名稱要唯一)。
  • MessageQ_Msg MessageQ_alloc(UInt16 heapId, UInt32 size):申請消息空間,從heap中申請,所以需要先打開heap獲取heapID,消息由MessageQ_Msg結構體長度規(guī)定。
  • MessageQ_registerHeap(HeapBufMP_Handle_upCast(heapHandle),HEAPID):注冊堆,分配heapID給這個堆,作為一個唯一標識符。
  • Int MessageQ_put(MessageQ_QueueId queueId, MessageQ_Msg msg):發(fā)送消息到queueId對應的消息隊列。
  • Int MessageQ_get(MessageQ_Handle handle,MessageQ_Msg *msg,UInt timeout):從消息隊列中接收消息。
  • MessageQ_free(MessageQ_Msg *msg):釋放msg空間,注意不用的消息空間需要釋放,不然會導致內(nèi)存問題。以ex02_messageq例程為例,說明MessageQ機制的使用過程:
​​​​​​​

例程運行流程圖如下:

結合實際代碼分析上述流程:
ARM
a)創(chuàng)建host消息隊列,打開slave消息隊列。


b)發(fā)送消息至slave消息隊列,監(jiān)聽host消息隊列,等待返回信息 。

c)發(fā)送shutdown消息至slave隊列。


DSP
a)創(chuàng)建slave消息隊列。


b)監(jiān)聽slave消息隊列,并返回消息至host端。

c)接收shutdown消息,停止任務。


3.內(nèi)存訪問與地址映射問題。
  • 地址映射
首先,對于DSP/IPU子系統(tǒng)和L3互連之間的存儲器管理單元(MMU),都用于將虛擬地址(即DSP/IPU子系統(tǒng)所查看的地址)轉(zhuǎn)換為物理地址(即從L3互連中看到的地址)。
DSP:MMU0用于DSP內(nèi)核,MMU1用于本地EDMA。
IPU:IPUx_UNICACHE_MMU用于一級映射,IPUx_MMU用于二級映射。
rsc_table_dspx.h,rsc_table_ipux.h資源表中,配置了DSP/IPU子系統(tǒng)的映射關系,在固件啟動前,該映射關系將會寫入寄存器,完成映射過程。



物理地址跟虛擬地址之間的映射關系查看:
DSP1:(默認配置mmu1的配置與mmu2的配置是一樣的)
cat /sys/kernel/debug/omap_iommu/40d01000.mmu/pagetable
cat /sys/kernel/debug/omap_iommu/40d02000.mmu/pagetable

DSP2:(默認配置mmu1的配置與mmu2的配置是一樣的)
cat /sys/kernel/debug/omap_iommu/41501000.mmu/pagetable
cat /sys/kernel/debug/omap_iommu/41502000.mmu/pagetable

IPU1:
cat /sys/kernel/debug/omap_iommu/58882000.mmu/pagetable
IPU2:
cat /sys/kernel/debug/omap_iommu/55082000.mmu/pagetable

Resource_physToVirt(UInt32pa,UInt32*da);
Resource_virtToPhys(UInt32da,UInt32*pa);
  • 內(nèi)存訪問
  • CMA內(nèi)存
CMA內(nèi)存,用于存放IPC程序的堆棧,代碼以及數(shù)據(jù)段。
dts文件中,預留了幾段空間作為從核的段空間(DDR空間):


IPC-demo/shared/config.bld:用于配置段空間的起始地址,以及段大小。

以DSP1為例,說明DMA中的內(nèi)存映射關系:


通過系統(tǒng)中查看虛擬地址表,左邊da(device address)對應的為虛擬地址,右邊對應的為物理地址,那么虛擬地址的0x95000000的地址映射到的應該是0x99100002的物理地址。
cat /sys/kernel/debug/omap_iommu/40d01000.mmu/pagetable

2.共享內(nèi)存
共享內(nèi)存:其實是一塊“大家”都可以訪問的內(nèi)存。
CMEM是一個內(nèi)核驅(qū)動(ARM),是為了分配一個或多個block(連續(xù)的內(nèi)存分配),更好地去管理內(nèi)存的申請(一個或多個連續(xù)的內(nèi)存分配block),釋放以及內(nèi)存碎片的回收。
CMEM內(nèi)存:由linux預留,CMEM驅(qū)動管理的一段空間。
arch/arm/boot/dts/am57xx-evm-cmem.dtsi中定義了CMEM,并預留了空間出來作為共享內(nèi)存(DDR & OCMC空間)。

cmem{}中最大分配的block數(shù)量為4個,cmem-buf-pools的數(shù)量沒有限制。
實際使用上,DSP與IPU訪問的都是虛擬地址,所以還要完成虛擬地址到物理地址的映射關系。
dsp1/rsc_table_dsp1.h定義了虛擬地址到物理地址的映射表,虛擬地址(0x85000000)到物理地址0xA0000000的映射,那么在DSP端訪問0x85000000的地址時,實際上通過映射訪問的物理地址應是0xA0000000。


cat /sys/kernel/debug/omap_iommu/40d01000.mmu/pagetable


實際應用:
a)初始化cmem。


b)申請內(nèi)存空間,并轉(zhuǎn)換為物理地址(msg傳輸?shù)臅r候傳輸?shù)氖俏锢淼刂,否則傳輸虛擬地址有不確定性)

DSP端的處理:接收物理地址,轉(zhuǎn)換為虛擬地址進行操作,發(fā)送操作完成的結果。這里DSP需要將地址返回給ARM的話,那應該將虛擬地址轉(zhuǎn)換為物理地址,再傳給ARM端。





關于創(chuàng)龍
Tronlong專注于異構多核SoC技術開發(fā),作為TI、Xilinx官方合作伙伴,擁有OMAP-L138、AM5708、AM5728、ZYNQ、MPSoC等眾多異構多核SoC平臺產(chǎn)品,提供多種核間通信工程案例,可縮短開發(fā)周期,助力產(chǎn)品快速上市。

現(xiàn)Tronlong推出復工優(yōu)惠活動,AM5708、Z-7020評估板限時推廣特價,僅需999元(含稅包郵),詳情訪問創(chuàng)龍官方商城。





嵌入式DSP、ARM、FPGA多核技術開發(fā),學習資料下載:http://site.tronlong.com/pfdownload
回復

使用道具 舉報

1

主題

1224

帖子

5701

積分

四級會員

Rank: 4

積分
5701
沙發(fā)
發(fā)表于 2020-3-27 11:31:39 | 只看該作者
認真學習………………
回復 支持 反對

使用道具 舉報

發(fā)表回復

您需要登錄后才可以回帖 登錄 | 立即注冊

本版積分規(guī)則


聯(lián)系客服 關注微信 下載APP 返回頂部 返回列表