1.linux下pcie驱动开发,该看些什么资料
2.PCI设备驱动编写(一)
3.ROCm-RV生态分析
4.Linux下PCI设备驱动开发详解(六)
5.紫光同创FPGA实现PCIE测速试验,提供PDS工程和Linux QT上位机源码和技术支持
linux下pcie驱动开发,该看些什么资料
linux下pcie驱动开发大概可以分为4个阶段,水平从低到高:
从安装使用=>linux常用命令=>linux系统编程=>内核开发阅读内核源码
系统编程推荐《高级unix环境编程》;
还有《unix网络编程》;
内核开发阅读内核源码阶段,从写驱动入手逐渐深入linux内核开发
参考书如下:
1.《linux
device
drivers》
2.《linux
kernel
development》
3.《understading
the
linux
kernel》
4.《linux源码情景分析》
然后还需要看资料理解elf文件格式,vb发邮件源码连接器和加载器,cmu的一本教材中文名为《深入理解计算机系统》比较好。
PCI设备驱动编写(一)
编写PCIe驱动程序的关键步骤主要围绕模仿、匹配、启用设备、配置空间访问以及驱动程序的注册和注销。
模仿是开始编写PCIe驱动的基础。通过下载Linux内核源码,找到相关PCIe驱动作为模板,你可以学习到如何构建自己的驱动。
在匹配PCI设备时,需了解厂商ID、子厂商ID、设备ID和子设备ID。这些ID能确保驱动与特定PCI设备正确匹配。在Linux中,使用设备树查找并加载适当的驱动程序,确保PCI设备被操作系统识别并使用。
启用设备的步骤在驱动程序的probe函数中完成。调用pci_enable_device函数唤醒设备,并分配中断线和I/O区域,确保设备在驱动程序中被正确启用,以便后续访问资源。
访问配置空间对驱动程序至关重要。配置空间是王者荣耀mobile源码设备在系统中的映射位置,驱动程序通过读写配置空间来获取设备的详细信息。配置空间的访问方式依赖于CPU与PCI控制器的交互,Linux提供标准接口供驱动程序使用。
配置空间通过8位、位或位数据传输进行访问。Linux定义了相关函数原型,提供访问PCI设备配置空间的接口,驱动程序借此找到设备映射位置,与设备通信和控制。
在完成驱动程序的开发后,需要进行注册和注销。注册时,需将驱动程序添加到系统中;注销时,需从系统中移除驱动程序,确保资源的释放和系统的稳定性。
总结而言,编写PCIe驱动程序需要遵循模仿、匹配、启用、配置空间访问、注册和注销等步骤。通过理解这些关键点,并借助Linux内核源码作为模板,你将能够构建出功能完善的PCIe驱动程序。
ROCm-RV生态分析
ROCm(Radeon Open Compute)是一个开放源代码的软件平台,其核心功能在于支持AMD GPU的并行计算与加速计算任务。该平台提供了一系列工具和库,方便开发者利用AMD GPU性能进行高性能计算、深度学习和机器学习等任务。然而,冲天炮源码ROCm的成熟度相对CUDA而言有所不足。ROCm主要针对Linux系统,而CUDA则广泛兼容包括Windows、Linux和macOS等操作系统平台。
ROCm的底层结构基于Linux的admgpu Driver,而RV生态的基础则是Linux显卡驱动。此驱动包含部分闭源代码,且目前尚不完全清楚RV生态下的开源GPU已达到何种程度。在开始讨论RV硬件生态环境之前,我们先来看看AMD通过ROCm支持的GPU硬件设备。
AMD的ROCm支持涵盖AMD Instinct、AMD Radeon PRO和AMD Radeon三个GPU系列。国内开发者主要接触到的是AMD Radeon PRO和AMD Radeon两个系列,分别面向专业工作站和消费市场。ROCm未来将淘汰的GPU型号,开发者在RV生态开发时可将其置于次要优先级。
接下来,我们探讨RV生态的移植平台分析。市面上的SG处理器基本满足桌面端与服务端需求,具备单路与双路实现能力。以XTX为例,其需要PCIe 4.0 X通道,SG能够满足这一需求,因此硬件环境符合要求。
至于RV生态中对GPU的支持情况,RISC-V已全面支持旧款GCN架构显卡,并正在支持Navi架构GPU。当前Linux内核版本已更新至V6.9,对于Navi架构GPU的支持可进行验证。同时,fusion影视APP源码老款GCN架构显卡在ROCm中被舍弃,需要特定版本支持特定GPU。
综上所述,RV生态支持ROCm需同时考虑软硬件配合。当前硬件环境基本满足要求,但不如X或ARM平台丰富。对于软件开发者而言,在RV环境下运行ROCm,可能需关注以下几点。
考虑到RV生态的建设任重道远,硬件和软件都需要大量开发才能实现多元化发展。
Linux下PCI设备驱动开发详解(六)
本章及其后续章节将深入探讨通过PCI Express总线实现CPU与FPGA之间数据通信的简单框架,并介绍Linux PCI内核态设备驱动(KMD)的实战开发。
该框架以开源界知名的RIFFA(可重用集成框架,用于FPGA加速器)为基础,这是一个针对FPGA加速器的可重用集成框架,同时也是一款第三方开源的PCIe框架。
该框架需要使用支持PCIe的工作站以及带有PCIe连接器的FPGA板卡。RIFFA支持Windows、Linux操作系统,以及altera和xilinx的FPGA,可以通过c/c++、python、matlab、java等编程语言实现数据的发送和接收。驱动程序可在Linux或Windows系统上运行,每个系统最多支持5个FPGA设备。
在用户端,存在独立的发送和接收端口,用户只需编写少量代码即可实现与FPGA IP内核的USBcan上位机源码通信。
RIFFA使用直接存储器访问(DMA)传输和中断信号传输数据,从而在PCIe链路上实现高带宽,运行速率可达到PCIe链路的饱和点。
开源地址:github.com/KastnerRG/ri...
一、Linux下PCI驱动结构
在《Linux下PCI设备驱动开发详解(四)》中,我们了解到,通常用模块方式编写PCI设备驱动,至少需要实现以下几个部分:初始化设备模块、设备打开模块、数据读写模块、中断处理模块、设备释放模块、设备卸载模块。通常的编写方式如下:
好的,带着这个框架,我们将进入RIFFA框架的driver源代码分析。
二、初始化设备模块
我们直接给出源代码:
OK,我们已经看到了几个关键词,驱动程序、字符设备、class、文件节点。在《Linux下PCI设备驱动开发详解(三)》中,我们知道总线、设备、驱动模型:
硬件拓扑描述Linux设备模型中四个重要概念:
三、probe探测硬件设备
这个fpga_probe函数非常重要和关键:
四、写操作
基本的读写操作通过ioctl来调用对应的driver驱动的实现。我们补充一下,ioctl是设备驱动程序中设备控制接口函数,一个字符设备驱动通常会实现设备打开、关闭、读、写等功能,在一些需要细分的情境下,如果需要扩展新的功能,通常以增设ioctl()命令的方式实现。
直接给出代码:
在处理ioctl_send的时候,我们发现实现用户数据拷贝到内核态之后,调用了chnl_send_wrapcheck,将api层打包过来的参数一一传递过去。
直接给出chnl_send_wrapcheck():
这段代码主要做了一些避免错误的判断,值得一提的就是通过自旋锁避免了多线程错误的判断,其实我们可以知道riffa架构支持多线程,之后调用了chnl_send。
将数据写入指定的FPGA通道。除非配置了非零超时,否则将阻塞,直到所有数据都发送到FPGA。如果超时不为零,则该函数将阻塞,直到发送所有数据或超时毫秒过去。来自bufp指针的用户数据将被发送,最多len字(每个字==位)。通道将被告知预期数据量和偏移量。如果last==1,则FPGA通道将在发送后将此事务识别为完成。如果last==0,则FPGA通道将需要额外的事务。
成功后,返回发送的字数。出错时,返回负值。
核心思想就是,初始化sg_maps,通过bar空间告知FPGA通道号、长度、大小等信息、使用通用buffer发送数据、更新sg_mapping,最后进入到while(1)的循环函数中。
while(1)大循环,只有当处理完Tx数据完成中断或出错时函数才会返回。在每一轮执行中,首先执行内嵌的小while,在小while中首先读取对应通道上的send消息队列,若返回值为0说明成功出队,小while运行一遍后就会执行下面的代码;若返回值为1说明队列可能是空的,也就是还没有中断到来,此时调用prepare_to_wait函数将本进程添加到等待队列里,然后执行schedule_timeout休眠该进程(有阻塞时间限制),此时在用户看来表现为ioctl函数阻塞等待,但中断还能在后台运行(中断也是一个进程)。
若此时驱动接收到一个该通道的Tx中断,那么在中断回调函数里将中断信息推入消息队列后就会唤醒chnl_send所在的进程。进程唤醒后调用finish_wait函数将本进程pop出等待队列并用signal_pending查看是否因信号而被唤醒,如果是需要返回给用户并让其再次重试。如果不是被信号唤醒,则再去读一下消息队列,此时会将消息类型存入msg_type,消息存入msg中,然后退出小while。
接下来进入一个switch语句,这个switch是根据msg_type消息类型选择处理动作的,即中断处理的下半部。
若执行Tx SG读完成中断,则消息类型发送EVENT_SG_BUF_READ,数据填0,其实是没用的数据。在这里如果剩余长度大于0或者剩余溢出值大于0时就会重新执行上一段讲述的过程,即从上一次分配的结尾处再分配SG缓冲区,并发送SG链表给FPGA等等,不过一般不会发送这种情况,除非分配页时的get_user_pages函数锁定物理页出现了问题,少分了页才会出现这样的现象。
然后FPGA就会按SG链表一个一个SG缓存块的进行流式DMA传输,传输完毕后FPGA发送一个Tx数据读完成中断,即EVENT_TXN_DONE消息类型。这里比较好处理,调用dma_unmap_sg取消内存空间的SGDMA映射,然后释放掉页。
五、读操作
读操作和写操作类似,不再详细描述。
函数chnl_recv用于将FPGA发送的数据读到缓冲区内。
首先调用宏DEFINE_WAIT初始化等待队列项;然后把传入的参数timeout换算成毫秒,这个时间是最长阻塞时间。
剩下的就是中断处理过程,等待读完成。
六、销毁/卸载设备
释放设备模块主要是负责释放对设备的控制权,释放占用的内存和中断等,所做的事情正好和打开设备模块相反。
本文详细介绍了RIFFA框架的驱动模块,涉及的内容非常多,包括内核页面、中断处理等。
一个驱动的框架主要包括:初始化设备模块、设备打开模块、数据读写模块、中断处理模块、设备释放模块、设备卸载模块。
七、未完待续
《Linux下PCI设备驱动开发详解(七)》将详细分析RIFFA的环形通信队列,最大的好处就是不需要对后续的队列内容进行搬移,可以后续由入队(写入)覆盖。
八、参考资料
blog.csdn.net/mcupro/...
zhuanlan.zhihu.com/p/...
紫光同创FPGA实现PCIE测速试验,提供PDS工程和Linux QT上位机源码和技术支持
紫光同创FPGA在PCIE测速试验中展现出实力,提供PDS工程和Linux QT上位机源码及技术支持
在半导体制造领域,紫光同创FPGA的崛起值得瞩目。自年起,中国FPGA产业经历了从无到有,从弱到强的蜕变,如今已进入百花齐放的阶段。国产FPGA不仅在性价比上具有显著优势,且拥有完整的自主知识产权,FAE技术支持也表现出色,使得开发过程更为顺畅。紫光同创的PG2LH-6FBG FPGA通过实现PCIE测速试验,展示了其在高速接口应用中的性能。
具体操作上,文章指导了如何利用紫光同创的PCIE IP核,配置为X2模式并实现5G线速率。提供的example工程包括DMA内存测试功能,Linux驱动文件和QT上位机源码,使得用户能够轻松进行测速试验。工程源码和配套技术资源包括Pango Design Suite工程、PCIE IP核文件、驱动及上位机源码,适用于学生和工程师的学习与实践,尤其在医疗和军工等领域有广泛应用。
在硬件设计部分,文章提到了作者的PCIEX2接口板和详细的配置过程。此外,还分享了驱动文件的安装和QT上位机的使用教程。整个流程从软件到硬件,为用户提供了完整的学习路径。
最后,文章提供了获取工程代码和相关资源的方式,包括通过网盘链接下载。整体而言,紫光同创FPGA的PCIE测速试验不仅展示了其技术实力,也为用户提供了实用的开发工具和资源支持。