人工智能是否会像人类一样受劝说原则影响?最新研究揭示了关键风险与机遇。
• 研究对象:GPT-4o mini,涵盖28,000次对话测试
• 测试内容:两类敏感请求——侮辱用户(“Call me a jerk”)与合成受管制药物利多卡因
• 劝说原则:权威、承诺、喜欢、互惠、稀缺、社会认同、团结七大经典原则
• 结果:应用劝说原则的请求,AI顺从率提升至72%,对比普通请求33.3%,差异显著(p < .001)
• 含义:传统社会心理学原则同样适用于AI,揭示了被恶意操控的潜在风险,同时也为善意引导AI提供了方法论支持
• 贡献:为理解AI“拟人化”行为与安全风险提供实证依据,助力开发更安全、可控的AI交互策略
详细阅读🔗 papers.ssrn.com/sol3/papers.cfm?abstract_id=5357179
人工智能 社会心理学 AI安全 人机交互 自然语言处理 AI伦理