澳大利亚政府启动磋商以评估对“高风险”人工智能的禁令 – Cryptopolitan

澳大利亚政府出人意料地启动了为期八周的咨询期,旨在确定是否应禁止某些“高风险”人工智能(AI)工具。 在此之前,包括美国、欧盟和中国在内的其他地区也采取了类似措施,以应对人工智能快速发展带来的风险。

1 月 26 日,工业和科学部长 Ed Husic 公布了两篇论文供公众评审:一篇关于“澳大利亚安全和负责任的人工智能”,另一篇来自国家科学技术委员会的关于生成式人工智能。 这些文件与咨询期一起发布,咨询期将持续到 XNUMX 月 XNUMX 日。

澳大利亚政府寻求有关促进“安全和负责任地使用人工智能”的战略的反馈,探索自愿道德框架、具体法规或两种方法相结合等选择。 值得注意的是,磋商直接询问是否应完全禁止某些高风险人工智能应用或技术,并就识别此类工具的标准征求意见。

这份全面的讨论文件包括人工智能模型的风险矩阵草案,将自动驾驶汽车归类为“高风险”,将用于创建医疗患者记录的生成人工智能工具归类为“中等风险”。 该文件强调了人工智能在医学、工程和法律等领域的积极应用,以及与深度造假工具、虚假新闻生成以及人工智能机器人鼓励自残相关的潜在危害。

澳大利亚政府与人工智能

讨论文件中还讨论了对人工智能模型偏差以及人工智能系统产生被称为“幻觉”的无意义或虚假信息的担忧。 它承认,由于公众信任度较低,目前人工智能在澳大利亚的采用受到限制。 该论文引用了其他司法管辖区实施的人工智能法规以及意大利对 ChatGPT 的临时禁令作为例子。

此外,国家科学技术委员会的报告强调了澳大利亚在机器人和计算机视觉方面的优势能力,但也指出了大型语言模型等核心领域的相对弱点。 这引发了人们对生成式人工智能资源集中于少数主要位于美国的科技公司的担忧,这给澳大利亚带来了潜在风险。

该报告进一步探讨了全球人工智能监管,提供了生成式人工智能模型的示例,并表明此类模型可能会对银行和金融、公共服务、教育和创意产业等领域产生深远影响。

免责声明。 提供的信息不是交易建议。 Cryptopolitan.com 对根据本页提供的信息进行的任何投资不承担任何责任。 我们强烈建议在做出任何投资决定之前进行独立研究和/或咨询合格的专业人士。

资料来源:https://www.cryptopolitan.com/australian-government-on-ai-consultation/