社区导航

 
查看: 2929|回复: 0

[原创] 【3月28日WPI直播回顾】计算机视觉影像处理应用于智能驾驶的未来及挑战(含PPT、QA)

[复制链接]

6298

TA的帖子

4

TA的资源

管理员

Rank: 13Rank: 13Rank: 13Rank: 13

发表于 2018-4-8 21:49:13 | 显示全部楼层 |阅读模式
【3月28日直播回顾和相关资源整理】
直播回放:点击观看
直播PPT下载:
点击进入
直播主要内容
什么是 ADAS、ADAS 的应用领、TI方案介绍(
TDA/Jacinto 6)、视觉系统的灵魂 Ul see(监督式与非监督式学习/现今电脑视觉与人眼的差距
/ULSee的方案(在嵌入式平台实现高品质的ADAS))

相关常见问题和直播间问答汇总
Q: ADAS是什么?
A:高级驾驶辅助系统是利用安装在车上的各式各样传感器,在汽车行驶过程中随时来感应周围的环境,收集数据,进行静态、动态物体的辨识、侦测与追踪,并结合导航仪地图数据,进行系统的运算与分析,从而预先让驾驶者察觉到可能发生的危险,有效增加汽车驾驶的舒适性和安全性。

Q:主要的视觉是来自可见光摄像头还是红外或者激光雷达云呢?
A:可见光摄像头

Q:TDA7的开发包与AM5728的是不是通用啊
A:不通用,TDA7的开发包是针对汽车类的,SDK也是Automotive的,AM5728主要针对工业

Q:ADAS系统中需要怎么多摄像头和雷达、传感器,目前的DSP的处理能力能应付的过来吗?
A:可以的,里面包了A15 + C66x + M4多核处理器,他们是协同工作的,可以满足应用需求

Q:从哪里可以购买到TDA3的样片?
A:你们立项了我们这可以支持样品,可以发邮件给我们eric.cai@wpi-group.com

Q:我在AM5728上直接使用DRA7的SDK,似乎也没什么大问题,所以想官方给个解释。
A:因为AM5728,J6,TDAXX都是源于TI的OMAP处理器,架构一样,如果你用的是资源一样的,应该是可以的

Q:ADAS中方案中的主要核心芯片是什么。计算量很大吧,而且实时性和响应是不是要求相当高;对总线速度有什么要求。
A:主处理器是TI 的DA7系列多核芯片,内部是通过buffer寄存器通讯的,实时性可以满足需求,用不到外部总线,外部总线速度要求主要看你们要挂什么样的外设

Q:大联大在视觉影像处理上的支持力度是否会加大?
A:是的,我们内部有ATU,外部有IDH,会加大投入

Q:烟雾雨雪等恶劣情况下,视频如何实现可靠采集
A:通过软件算法来识别,辅助部分通过雷达来判断

Q:影像处理是对实时路况进行分析吗?这个对网络有很高的要求?
A:是實時分析的. 目前沒有使用網路雲端分. 利用的是 Embedded System

Q:视觉图像对于静止物体和运动物体的处理识别的难度主要在哪些方面?
A:静止物体相对简单,运动物体主要靠算法,最核心的是抓取到有效的信息,涉及算法,可以发邮件给我们沟通

Q:可见光摄像头在光线不好情况下如何良好的工作呢,有没有红外或者激光雷达的方案呢?
A:光线不好的情况下需要雷达跟红外辅助

Q:影像识别能否取代传统雷达应用?
A:目前还不能完全替代,特别是在能见度比较差的情况下

Q:图像处理的芯片是哪类产品?,优点有啥?
A:TDAXX和J6系列都可以,内含GPU,DSP加速图像处理

Q:融合算法或软件提供支持吗?
A:是的,WPI支持算法的融合。

Q:ADAS中各种应用的在系统中是否关联或联动?
A:需要的,比如雷达和摄像头的联动

Q:TI的ADAS处理器为什么采用A15作为主处理器,相对目前很多采用A53的架构会不会差很多
A:目前的方案是验证过的,比较成熟

Q:AM5728的视频编码方式是采用H264吗
A:支持H264

Q:学习的算法是TI自己开发的?还是第三方的?
A:ULSee的ADAS算法,完全由ULSee自行開發。

Q:算法是免费提供吗?
A:算法以客户为主,SDK是免费的

Q:ADAS能否有效处理对向车道的远光灯的干扰
A:见直播视频讲师的讲解。

Q:DRA7系列是什么内核架构的,主频可以到多少
A:A15 + C66x DSP + M4架构,主频最高位A15 *2 1.8G,C66x DSP*2 850M

Q:TDA系列最多可以支持多少路摄像头输入?
A:12

Q:这个影像处理系统,夜间对于车前方识别性能如何,实验中误判漏判多吗
A:夜间需要雷达辅助,实验数据会后我们邮件沟通

Q:DRA3XX有2D和3D的图形加速器吗
A:有。

Q:电脑识别系统在剧烈的车辆事故中会不会有所损坏而影响判断?
A:这个取决于物理防护

Q:VPE、VIP、MMU全称是?
A:VPE:Video Processing Engine,VIP:Video Input Port,MMU:Memory ManagementUnit

Q:TDA的产品互相向下兼容?
A:兼容

Q:深度学习是否会产生学习错误?
A:学习是按照制定的规则来的,不会向错误方向学习的

Q:请问TDA3X中的的EVE应用场景及特点
A:相当于主DSP的加速器,主要用于一些相对固定的算法

Q:DRA7x支持多高的视频编解码速率?
A:1080p @60 fps

Q:TDA单芯片完成吗?还是需要协处理器?
A:内部带协处理器

Q:DRA的SDK是完全开源还是部分开源?
A:目前完全开源,TI更新速度会比较快

Q:一次视觉图像的获取是不是可同时实现道路检测、交通标志检测等这些工作?
A:這些工作實務上在算法可以同時實現,但仍需要視Embedded System的硬件能力。

Q:TI未来会有A53架构的应用处理器出来吗
A:有A53架构的处理器,只是目前不是主推物料

Q:TDA是什么缩写
A:TI Driver Assistance Processor

Q:请问TDA3X中的的EVE应用场景及特点
A:相当于DSP的加速器,主要用于一些相对固定的算法

Q:数据建议做本地还是做在服务器?怎么样提高效率
A:正常是本地跟服务器结合的方式

Q:车载的视觉传感器都是可以变焦的嘛?
A:目前都是定焦

Q:TI官网有TDA2x的封装图,为啥没TDA3X的封装图?
A:需要的话会有邮件联系WPI。

Q:TI的毫米波芯片对中国还是限制数量?
A:没有

Q:TI的ADAS方案的核心处理器有哪些?
A:目前有 A15, C66x, M4, Pru

Q:ULsee系统中对输入的视频信息格式是什么。这么大的数据量是如何完成实时分析的
A:輸入格式取決於攝像頭的輸出,我們能進行色彩轉換。我們僅需要較低分辨率的影像,降低運算能量以達即時分析。

Q:目前TI的ADAS都在哪些厂商,哪些车型有成熟应用?
A:国内上汽RX5就是TI的方案

Q:TDA3可以运行何种操作系统?界面开发是用的QT吗
A:可以运行Linux,支持QT的

Q:DRA7系列支持视频的分辨率可以达到多大
A:Full-HD Video (1920 × 1080p, 60 fps)

Q:雷达处理方面的算法大概需要什么级别的CPU才能应付
A:需要使用到 DSP 做數據處理

Q:ULSee ADAS的核心能力是什麼?
A:以對車外的ADAS系統為例,我們結合專家prior knowledge以及自行研發的深度學習,可以不斷提升偵測能力外,同時也能簡化深度學習的架構,以達到即時嵌入式系統的可行性。

Q:和NAVIDA的AI学习有什么区别?TI用了神经算法吗?
A:这个还是未来的Roadmap,目前还未发布

Q:TI目前车载处理器最多能支持几路原生CAN?几路转接的CAN?
A:双 控 制 器 局 域网 网 (DCAN) 模 2 組

Q:夜间人眼面对远光灯也是无解,ADAS对于前方远光灯照射有处理方法吗?
A:使用了紅外線補光, 可以避免可見光的干擾.

Q:ULSee是提供整套的解决方案嘛? 对所有车型都适用?
A:ULSee能提供整套解決方案,也能針對不同車型

Q:摄像头取得的影像是YUV还RGB?
A:YUV格式

Q:这里的深度学习采用的是什么芯片
A:TDA2X

Q: ADAS主要包括那些场景
A:自适应巡航/车到偏移报警系统/车道保持系统/盲点检测/自动泊车系统/驾驶员疲劳驾驶检测

Q: TIADAS处理器采用什么样的架构。
A:采用A15+DSP+M4+EVE的异构架构

Q: TDA2XTDA3X的区别是什么?
A:TDA2X集成Cortex-A15的核,相对功能比TDA3X要强大一点,主要应用于前视,融合的应用,TDA3X应用于单一的环视和雷达的应用

Q: TI ADAS处理器主要分为那两类?
A:DRAX Infotainment SoCs和TDAx ADAS SoCs

Q: TIADAS处理器为什么采用A15作为主处理器,相对目前很多采用A53的架构会不会差很多
A:TI在ADAS领域还是发挥DSP的优势,基本常用的ADAS算法是运行在DSP上,所以对ARM的要求不是很高,目前来看A15就可以满足目前主流ADAS应用。

Q:如果客户向开发TIADAS系统是不是从网上可以下到全部资料?
A:TI的ADAS系统全部资料在官网都可以下载

Q: TDA系列最多可以支持多少路摄像头输入?
A:10高清输入。


Jacinto QA

Q:TDA系列与Jacinto 6的区别?
A:孪生姐妹,SDK有区别

Q:一般能跑什么操作系统,是否支持Android
A:支持QNX、Linux以及Android

Q:内核中M4主要实现什么功能?
A:CAN通讯,车载以太网等辅助功能

Q: J6内部GPU型号是?
A:SGX544

Q:是否支持USB3.0
A:支持

Q:是否支持SATA硬盘接口
A:支持

Q:最多支持几个显示器?
A:4个,1HDMI+3LCD

Q: DRA7x支持多高的视频编解码速率?
A:高达 1080p/60fps 的加速视频编码和解码

Q:是否支持WiLink
A:支持WiLink™ 8

Q:系统支持的操作系统版本是什么?
A:Android:v6AO.1.0,Linux:v3.04

Q:音频编解码能达到什么样的效果?
A:具有立体声输入和输出的音频编码和解码,以及 5.1 通道 HDMI 回放

Q: EVM显示系统支持哪些接口?
A:LCD、HDMI 和 fpdlFPD-Link 的显示面板

Q: Flash支持哪些接口
A:eMMC、SD 和 SDIO

Q:什么是AXSB™?
A:AXSB™ 是一种近 A 级样本参考硬件平台,专为向汽车 OEM、一级供应商和售后市场制造商提供服务的汽车开发团队打造。

Q:内核A15以及C6K最高支持多少主频?
A:A15最高支持1.8G双核,C6K最高支持850M双核

Q: 是否支持低电压版本的DDR3L
A:支持

Q&A  ULSee

Q:如何做到驾驶员分心警示?
A:ULSee已成功建置自有的Face Tracker(已有Line等客户採用),并且配合gaze estimation,即可达成分心以及疲劳行為侦测。
Q:ADAS系统有哪些功能?

A:ADAS大致分為对车外与对车内状况的侦测警示功能,ULSee目前已研发几种ADAS算法,如:fatigue analysis, FCW, LDW, and 3D AVM.
Q: ULSee ADAS的核心能力是什麼?
A:以对车外的ADAS系统為例,我们结合专家prior knowledge以及自行研发的深度学习,可以不断提升侦测能力外,同时也能简化深度学习的架构,以达到即时嵌入式系统的可行性。
Q: 3D AVM与其他市面上的常见的產品有何差异?
A:ULSee的3D AVM能结合车外ADAS侦测功能而成為3D ADAS,可以在慢速车行时,主动协助驾驶员注意週遭事物。
Q: FCW的优势?
A:ULSee现阶段可以在720p的影像中做到15*12 pixels的车辆侦测,虽然换算的侦测距离还不及Radar and LiDAR的solution,但侦测视角却大於前述方案,换言之可以看得更广。
Q:TI SDK是否能安装在Mac OS上?
A: 不能,目前只支援Windows、Linux。
Q:TI Vision SDK是否有支持OpenCV?
A:有,但默认关。
Q:串口的波特率要调多少? 需要额外安装驱动吗?
A:波特率為115200,不需额外安装驱动。
Q:摄像头取得的影像是YUV还RGB?
A: YUV420。
Q:这个是相机ADAS还是一套系统
A:這已是一套整合型系統. 不是單一相機可以完成的.

Q:深度学习能否通过网络,放到服务器端,结果下发给汽车。从而降低汽车端DSP的计算能力?
A:这个目前应该还没有应用,网络相应速度还不够快
Q:如果想采购整套的方案怎么联系呀?

A:发邮件给我们neat.liu@wpi-group.com

Q:这么多内容,对实时处理性能要求很高吧,同时对网络实时速率要求高吗?能否离线单机学习识别
图像特征这些算法 TI 提供支持吗?

A:TI没有算法的,如果需要请发邮件给我们

Q:数字化判断人眼反应来设计这套系统?
A:人眼判断主要是判断驾驶员是否疲劳驾驶以及分心

Q:3D AVM与其他市面上的常见的产品有何差异?
A:请观看直播回放视频中关于ULSee的3D AVM與常見產品的不同。

Q:视觉信息的获取过程中会不会出现车辆相互干扰的情况?

A:图像不会的

Q:tda的SDK在哪里能找到?
A:http://software-dl.ti.com/infota ... test/index_FDS.html

Q:目前ADAS的主流算法有哪些,在DSP上运行的性能相对ARM的优缺点。

A:ARM 主要是做工作分配及協調工作, 也可做簡易計算, 資料量大時還是需要 DSP 來做專業計算, 如影像及聲音

Q:人眼不如意的地方很多,车辆识别功能是否能完善肉眼的缺陷?
A:目前只能是识别后提前预警

Q:WPI 计算机视觉影像处理应用支持那种视频格式保存

A:H.264, H.265 , AVI.... 等等

Q:ULSee ADAS的核心能力是什么?

A:以對車外的ADAS系統為例,我們結合專家prior knowledge以及自行研發的深度學習,可以不斷提升偵測能力外,同時也能簡化深度學習的架構,以達到即時嵌入式系統的可行性。

Q:这个人脸轮廓捕捉的做的不错,但还有的时候脸转动的时候不太理想,是处理不过来吗,还是信号延迟了

A:脸部转动的时候是跟算法有关,可以辅助结构光等技术来加强

Q:ULSee有移植到TDA上的案例吗?

A:有的,如有需求,可以联系ULSee

Q:深度学习需要强大的数据库,能做到数据多少呢。
A:靠算法

Q:TI SDK是否能安装在Mac OS上?
A:No. It can just installed on Ubuntu Linux

Q:FCW的优势是什么?
A:僅需要物件(如:車輛)在影像中極低的分辨率,可以達到較遠的偵測距離。

Q:对障碍物的材质能做出判别吗?

A:通过摄像头是没办法判断的

Q:FCW的优势?

A:ULSee現階段可以在720p的影像中做到15*12 pixels的車輛偵測,雖然換算的偵測距離還不及Radar and LiDAR的solution,但偵測視角卻大於前述方案,換言之可以看得更廣。

Q:ULSee ADAS的核心能力是什么?
A:以對車外的ADAS系統為例,我們結合專家prior knowledge以及自行研發的深度學習,可以不斷提升偵測能力外,同時也能簡化深度學習的架構,以達到即時嵌入式系統的可行性。

Q:大路上只要不超速,保持车距安全是有保证的,解决方案也是适合的,关健要解决的是像小区、闹市等复杂路况,抗干扰能力如何
A:复杂的道路情况需要你们自己优化算法,同时辅助雷达来处理

Q:ADAS系统是在一个嵌入式平台下进行的,那么它的计算资源是不是很少?

A:多核异构,目前来看ADAS应用够了

Q:ULSee的技术介绍了这么多,有怎么配合TDA来使用的介绍吗?

A:UlSee的算法有在TDA上移植的成功案例,可以发邮件给WPI,WPI可以提供相关资料。

Q:如何保证ADAS系统能够快速高精度响应同时保证多任务的需求呢?

A:多核异构

Q:雨雪雾得天气,实现受阻,ADAS的得算法是否还有优势?
A:除了極端天氣,ADAS算法仍有優勢,特別是結合多種感測器後,更能應付特別環境。

Q:如果车载处理器处理能力不足,是否有可能将相关数据发到后台服务器进一步处理,目前有这种方案吗

A:未来应该会有

Q:该系统能否用于工业仪表外观检测上?如仪表刻度,读数是否清晰等?简单说指针 字轮仪表

A:可以的,你提出来的应用相对简单多了

Q:如果在物体之间的遮挡、杂乱且动态变化的背景下采用多传感器配合是不是更有利车辆识别?

A:要看具体应用

Q:ULsee只支持前方识别吗?后方倒车有识别吗

A:可以发邮件给WPI,凡是摄像头可以做的,都可以来谈

Q:ULSee传感器是基于什么技术的?光学摄像头?雷达?或是什么新技术?

A:目前ULSee僅使用光學攝像頭,未來也能結合其他感測器,提升處理能力。

Q:ADAS的互动式学习中对于摄像头的分辨率有要求吧?

A:720 & 1080P

Q:这是两个摄像头拍的吗
A:流媒體後視鏡使用的是右/左/後 3個攝像頭.

Q:ULSee有考虑与雷达融合吗?
A:ULSee以影像識別起步,未來當然也會考慮與其他sensor融合,以符合不同安全等級的車輛需求。

Q:ULsee能否在其他MCU平台上用?
A:ULSee 的 ADAS 算法使用的是純 C 的算法. 是可以放在較低階的 MCU 上運行的.

Q:驾驶辅助系统都支持那些?

A:ADAS大致分為對車外與對車內狀況的偵測警示功能,ULSee目前已研發幾種ADAS算法,如:fatigue analysis, FCW, LDW, and 3D AVM.

Q:请问所讲的视觉处理是基于芯片內建的fⅰrmware还是用户可编缉的程序

A:TI的SDK firmware可修改,用戶可自行編程增加算法。

Q:WPI会出实际的产品吗?还是只有EVM?
A:我们只有EVM

Q:有没有已经投入量产的ADAS方案的车辆?

A:上汽RX5

Q:是否能提供应用案例和测试DEMO数据。
A:可以的,给WPI发邮件索取

Q:ADAS摄像头安装在车内还是外壳上?
A:主要外壳上

Q:现在ADAS可以投入实用了?
A:一直在使用

Q:360视觉实际应用中会有误差,如何提高精度?
A:1.使用品質較佳及高解晰的攝像頭 2.於室內明亮的環境進行校正 3.正確地放置校正布/板 4.使用較佳的校正及拼接演算法 (如ULSEE的算法)

Q:保障360度无死角,最小需要几个摄像头?
A:4個攝像頭.

Q:能认出红绿灯内的内容吗直行箭头还是拐弯还是掉头

A:目前 可以辨識 紅綠燈 , 直行 or 拐彎 目前都歸類 為綠燈的情況

Q:距离是什么传感器测的,能测多远?
A:目前距離是使用 Camera 的方式測量,在 FOV 60度, 1280x720 的Camera 中,可以看到 100公尺的前方車輛


Q:雷达的分辨率能到多少
A:厘米级别

Q:is it integrated with TI mmwave radar?

A:No,but algorithm can integrated our DSP

Q:如果前方有障碍物时车是停下来好还是减速绕道处理好
A:绕过去比较好吧

Q:能否实现智能超车
A:智能超車 需要 整合相當多的 系統,最重要是 控制車輛 這個功能。ULSee 目前尚未能 控制車輛 (加油、煞車、轉動方向盤),因此,現階段尚未能實現 智能超車

Q:WPI 计算机视觉影像处理硬件是否已经配套量产
A:目前在南方租车市场有量产

Q:国内企业对于你们的技术,服务反响如何?
A:BMW很感兴趣

Q:ADAS对摄像头的选型要求是怎样的?

A:基本上,ULSee 的電腦視覺算法,使用了 許多 "人眼" 的邏輯判斷依據,因此,對 與攝像頭 類型的依賴程度相當低。基本上,沒有選型的要求。

Q:ADAS抗干扰性能如何?

A:取决于算法和传感器

Q:图像处理中,视角和侦测距离是一对相互制约的变量吧?ADAS中是怎么处理的?

A:需要確定 攝像頭的視角(FOV),以及安裝的位置,之後我們透過 回推的方式,建立一個 Lookup Table,將畫面中 物體的位置 (主要是 Y軸) 換算成 距離。

Q:设计中那些主动去忽略的部分会不会有问题?

A:所謂忽略,並不是真正的忽略。我們針對這些 需要忽略的地方,會有一套 額外檢驗機制,確定 這些有問題的地方,確實是可以被忽略的。

Q:不同天气不同光线条件下,图像识别的效果能自动适应调节吗?也需要事先实景环境下进行学习操作吗?

A:是的。基本上,我們有針對資料庫中的不同的場景,會做一些分類,針對每類的場景,會有自動調適的機制,以確保系統的正確率。

Q:计算机视觉中TI常用的ADC是什么?优势在哪里?
A:请参考IVA模块

Q:ULsee是不是不需要太大修改就能投入实际使用?
A:基本上不需要太大修改,可以達到一定水準的效能 。

Q:由于车辆颠簸等影响,摄像头的标定参数会不会有较大偏差,产生较多的误检?

A:摄像头一版固定在车架上的,一般还好

Q:计算机视觉的opencv可否直接移植到TI的芯片ide中?还是需要转换?
A:TI SDK 已經有支援opencv

Q:现在有应用在无人驾驶上吗
A:無人駕駛需要整合相當多的系統 (包含 車輛控制)。ULSee 目前正在尋找 合適的廠商 (有控制車輛能力,例如:加速、煞車、轉動方向盤),積極往 無人駕駛的領域前進。

Q:如何解决别人强行快速变道等紧急情况?

A:可以靠雷达提前预警

Q:那ulsee对于前方远光灯有处理方案吗

A:前方遠光燈,基本上的 Pattern 非常獨特,因此,ULSee 是可以 判斷出 畫面中的線條,是 來自 太陽 or A:前方車輛的遠光燈


Q:在汽车应用中表现的稳定吗?
A:目前已经有量产汽车

Q:雨雪天气摄像头效果变差,ADAS系统有什么对策?
A:雷达是目前的理想选择

Q:智能驾驶的主控芯片使用什么芯片?
A:目前汽车ADAS处理器主要的厂牌有TI,NXP,Intel,Renesas等

Q:图像识别时怎么兼顾图像的压缩存储?
A:I/O Bound (資料輸出/輸入) 的確是一個問題。目前我們的系統(AI-Watcher),裡面有 Codec 的 硬件加速器,不過,如果 要直行 1080p x30fps 時,會抑制到 ADAS 的算法。因此,目前 朝 降低 Frame Rate 的方式 (例如 15fps) 達到 同時進行 ADAS+壓縮 這兩個功能。

Q:对驾驶员疲劳状态的实时检测时在暗光照、头部运动和驾驶员佩戴眼镜条件下的视线跟踪问题是否影响检测精度?

A:会的

Q:目前的360环视系统,看到的景象都是变形的,由于用的摄像头都是广角,会产生变形!有没有更好的方法解决摄像头变形!
A:基本上,變形的問題非常難解。如果可以知道 畫面中物體的遠近,的確可以透過 動態變動 模型的方式,減少變形量。


Q:目前主流的识别框架是什么?
A:目前主流的都是 CNN 的架構,但是 該架構 在 Embedded Platform 上是無法實現的。

Q:系统使用的摄像头有什么特殊性能要求?
A:鱼眼摄像头,至于性能需求,看应用

Q:智能驾驶目前的难度在哪里?
A:算法

Q:ULSee跟mobileye比较有什么优势?
A:ULSee 是軟體公司,透過 新的 電腦視覺架構,有效率的減少 系統的運算量,且達到 高正確率 & 低誤報綠的要求。
Mobileye 的算法非常複雜,因此,他們透過 硬件化 (與 ST Micro 合作,將它們的算法 ASIC化)的方式,使用平行處理的技巧 達到 Real-Time 處理的需求。不過硬件化的方式,意味著 系統優化迭代的速度會減緩許多。

Q:学习产生的数据怎么处理,本地储存还是发送到远端服务器或云端?
A:ULSee 收集數據後,使用 Deep Learning 的方式 找出有意義的特徵 (Feature),之後使用 人類 擅長的 邏輯判斷 優化演算法。

Q:在夜晚光照不明的情况下,该系统是否有针对这种情况做出优化,uber事件中,行人出现在车前面的反应时间就很短了,如何处理这种情况
A:這需要多 Sensor 進行 funsion 判斷才比較有機會處理.


此帖出自汽车电子论坛

扫一扫,关注 EEWORLD 微信订阅号

行业资讯、电子趣闻、技术干货、精彩活动……尽可掌握~

微信搜索公众号“EEWORLDBBS”快去添加关注吧!


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

  • 论坛活动 E手掌握

    扫码关注
    EEWORLD 官方微信

  • EE福利  唾手可得

    扫码关注
    EE福利 唾手可得

Archiver|手机版|小黑屋|电子工程世界 ( 京ICP证 060456 )

GMT+8, 2018-12-15 21:54 , Processed in 0.087026 second(s), 16 queries , Gzip On, MemCache On.

快速回复 返回顶部 返回列表