最新案例
The latest case
中国一个研究小组正在打算发售一个目的动态捕猎幼儿园虐童不道德的原型人工智能系统。这项研究早已展开了好几年了,但是最近在北京红黄蓝教育新世界幼儿园被指控折磨的事件引发了人们的兴趣,这个幼儿园是美国上市集团旗下高端连锁店的一部分。中国的大多数幼儿园都在教室加装了监控摄像头,但是很多监控摄像头没获得大力的监控。
研究人员说道,他们的人工智能算法可以分析一个动态视频流来追踪每个学生和老师的动作。当发现异常不道德(如扎针或打耳光)时,电脑可以发送到警报给幼儿园的管理人员,政府监管人员或家长,并具有视频短片展开评估。
研究人员正在对该技术展开普遍的测试,并预计明年已完成原型。贵阳的贵州民族大学计算机科学系由副教授RaoYan是该项目的首席科学家,回应自从2013年开始研究以来,她的团队遇上了技术障碍和资金短缺问题。Rao回应:“研究‘小领域’造成更有资金和引发注意力严重不足。
”尽管中国近年来在人工智能方面投放了大量资金,但大多数视频分析系统目前于是以用作国家安全性,还包括国防和反恐怖活动。但是,作为一个年幼孩子的母亲,Rao说道,她实在有义务寻找一个技术来解决问题折磨儿童的威胁。她说道,“这某种程度是为了我的小孩。
我们正在全国各地找到这些问题。”在中国,许多幼儿园教师年长而且收益严重不足,有些教师缺少充足的培训。对红黄蓝的调查意味着是在最近几年一些幼儿园折磨案件之一,其中一些早已被监控摄像机捕捉到,已引起了家长们的安全性忧虑,并促成国务院发售幼儿园的全国性检查。
Rao和她的同事开始他们的研究,指出这将是一件更容易的工作。有很多算法来检测暴力,出现异常或“可怕”的不道德。但是他们迅速找到现有的方法只限于于成年人。
“老师大,学生小。电脑在处置视频时很更容易漏掉小孩。”Rao说道。孩子的不道德也给机器造成了相当大的疑惑。
他们可能会在椅子上跳跃一起,用手中的玩具枪追赶对方,或者长时间躺在角落里玩游戏沙子。所有这些活动对于成年人来说都是不奇怪的,但是对于儿童来说是长时间的,因此用于为成年人研发的AI工具来监控他们不会大大启动时警报。所以Rao在幼儿园设置了一个新的机器学习算法。
该团队从学前班搜集了大量的监控视频,并将这些数据输出电脑。开始时,研究人员被迫告诉他机器哪种不道德是准确的,哪个是错误的,但后来电脑学会了准确评估镜头,完全没人为介入。
研究人员正在对来自幼儿园的近期视频展开测试,他们期望明年需要公开发表展出这项技术。但Rao回应,这个系统还有相当大的改良空间。“这远非极致。
我期望更好的研究人员可以重新加入这项工作,加快人工智能技术在压制折磨儿童方面的应用于。”清华大学电子工程系教授ZhangLi回应,他们和中国其他顶尖的人工智能实验室可以迅速分配资源来处置折磨儿童的问题。
Zhang回应,国内许多机场、火车站和公共场所早已在用于这项技术与面部辨识等方法一起来检测涉及的出现异常不道德。但是,为了使这项技术需要用作幼儿园,研究人员必须取得大量的数据,这有可能是个问题。“有些幼儿园有可能不不愿共享,因为这些视频有可能包括脆弱信息。
一些家长也有可能有隐私问题。”Zhang说道。北京中国科学院模式识别国家重点实验室研究员HuangKaiqi回应,计算机可以通过跟踪人体图像中的每个像素来跟踪移动或手势,从而可以检测出有儿童的错综复杂不道德,例如针扎惩处。
“折磨一般来说牵涉到一系列的不道德。这些行动可以构成一个模式,这样机器就可以自学和辨识。
”他说道。Huang还回应,还可以用于声音和热感应器等其他检测方法搜集更加多信息,以便不道德追踪系统需要作出更加精确的辨别。例如,如果孩子在教师采行某种行动后重复流泪,系统可能会收到警报。
负责管理全国监控和报警系统的北京公安部高级警官回应,将考虑到在还包括幼儿园在内的学校加设人工智能。
本文关键词:BOB半岛·体育中国官方网站,BOB&BANDAO SPORTS
本文来源:BOB半岛·体育中国官方网站-www.xhcbcq.com