关注我们.

数字经济

数字服务法:法律事务委员会攻击用户隐私和在线言论自由

共享:

发布时间

on

我们使用您的注册以您同意的方式提供内容并增进我们对您的了解。 您可以随时取消订阅。

今天(30 月 XNUMX 日),欧洲议会法律事务委员会(JURI)通过了 其对《数字服务法》的建议 正如法国意见报告员 Geoffroy Didier (EPP) 所提议的那样。 为了公民的利益,委员会呼吁有权匿名使用和支付数字服务,并禁止行为跟踪和广告 (AM411)。 网络平台自愿主动调查不得导致基于上传过滤器的事前控制措施(第 6 条)。

公司一般没有义务使用有争议的上传过滤器(第 7 条),因为“此类工具难以有效理解人类交流中的上下文和含义的微妙之处,这对于确定评估内容是否违反法律是必要的或服务条款”。 DSA 不应阻止提供端到端加密服务(第 7 条)。

公共当局应有权下令恢复被平台删除的合法内容(第 8a 条)。 禁止使用深色图案(第 13a 条)。 然而,绿党/全民教育组织的影子报告员、欧洲议会议员帕特里克·布雷耶(海盗党)对意见的其他部分提出警告:“这些提议威胁到私人通信的机密性,鼓励容易出错的事前上传过滤,引入过短的内容删除延迟,在整个欧盟执行过多的国家法律(例如在波兰或匈牙利),将“受信任的举报者”转变为“受信任的审查者”等等。 我认为法律事务委员会的所有同事都没有意识到其中的含义。 它们反映了内容和版权所有者行业的大规模游说。”

对即时通讯保密性的攻击

具体而言,拟议的第 1 条将在 DSA 的范围内增加私人通信/消息服务。 这威胁到通信和安全加密的隐私。 强制消息提供者审查和删除私人消息的内容(第 8 条和第 14 条)将禁止公民、企业和政府依赖的安全端到端加密。 委员会关于免除个人使用消息服务的提议行不通,因为该服务在不阅读信件和破解加密的情况下不可能知道帐户或消息的目的。

过度阻塞的风险

此外,拟议的第 5 条将从根本上改变责任制度,给企业带来负担,支持过度屏蔽内容并威胁用户的基本权利:
• 标准杆。 1(b) 将要求提供商“永久”删除某些内容,从而强制要求容易出错的上传过滤器。 算法无法可靠地识别非法内容,目前通常会导致对合法内容(包括媒体内容)的压制。 重新出现的内容在新的上下文中、出于新的目的或由其他作者发布可能是合法的。
• 标准杆。 1a 会施加不灵活和过短的删除延迟,有些甚至比恐怖内容更短。 如果没有时间进行适当的审查,提供商将不得不对非法内容进行屏蔽(“我们没有时间确定这是非法的”)或过度屏蔽合法内容(“为了安全起见,我们会将其删除” )。 这是对言论自由的基本权利的重大威胁。

广告

在言论自由方面逐底竞争

拟议的第 8 条将允许一个拥有极端国家立法的成员国下令删除在另一个成员国合法发布的内容。 这将导致在言论自由方面逐底竞争,在整个联盟中普遍存在最具压制性的立法。 此外,通过删除在非欧盟国家合法发布的内容在全球范围内执行欧盟法律将导致非欧盟国家(例如俄罗斯、中国、土耳其)的报复要求欧盟提供商删除完全合法和合法的内容。规则。

容易出错的上传过滤

拟议的第 14 条将对报告内容的决定引入严格的 72 小时时限。 如果没有时间进行适当的审查,提供商将不得不对非法内容进行屏蔽(“我们没有时间确定这是非法的”)或过度屏蔽合法内容(“我们将把它取下来,只是为了安全起见边”)。 它还允许提供商使用容易出错的重新上传过滤器来阻止上传已删除的内容(“保持关闭”)。 算法无法可靠地识别非法内容,目前通常会导致对合法内容(包括媒体内容)的压制。 重新出现的内容在新的上下文中、出于新的目的或由其他作者发布可能是合法的。

过滤算法不能可靠地区分合法与非法。 “受信任的审查员”艺术。 14a(2a) 基本上允许私人“受信任的标记者”直接删除或阻止内容,甚至不需要提供者评估合法性。 这会将“受信任的举报者”变成“受信任的审查者”并威胁合法内容的可访问性。 艺术。 20 (3c) 将间接取消匿名帐户并强制要求对所有用户进行身份识别,以防止被暂停的用户使用或注册另一个帐户。

多个在线身份对于活动家、举报人、人权捍卫者、妇女、儿童以及更多无法透露其真实身份的人来说至关重要。 展望 法律事务委员会的建议将在内部市场 (IMCO) 牵头委员会进行讨论,该委员会计划在年底前完成文本。 下周,IMCO 谈判代表将举行第一轮辩论,讨论有政治争议的问题。

分享此文章:

EU Reporter 发表来自各种外部来源的文章,表达了广泛的观点。 这些文章中的立场不一定是欧盟记者的立场。

热销