首页 > 试卷 > 教材同步 > 高三试卷

2023年山东省滨州市高考语文二模试卷-普通用卷

[db:作者] 高三试卷 2023-05-23 18:11:06 0 2023 山东省 滨州市 高考 语文 试卷 普通

2023年山东省滨州市高考语文二模试卷-普通用卷,以下展示关于2023年山东省滨州市高考语文二模试卷-普通用卷的相关内容节选,更多内容请多关注我们

2023年山东省滨州市高考语文二模试卷-普通用卷

1、2023年山东省滨州市高考语文二模试卷一、现代文阅读(本大题共9小题,共35.0分)阅读下面的文字,完成小题。 材料一: 人工智能是指通过分析其环境而具有一定程度的自主性行动,以实现特定目标而显示智能行为的系统。近来研究更趋向于将人工智能定义为建立在现代算法基础上,以历史数据为支撑而形成的具有感知、推理、学习、决策等思维活动并能够按照一定目标完成相应行为的计算系统。目前众多基于人工智能的系统已广泛应用,如搜索引擎通过处理海量数据,将原本混乱的互联网以人类可理解的、可感知的形式呈现出来;无人驾驶通过传感器感知环境而实现转向、加速和制动。这些为增强与替代人类的活动和任务提供了变革潜力,逐渐提升了人

2、类的感知、思考和对世界采取行动的能力。 人工智能具有以往技术无法企及的增强人类活动的特点,且在某种程度上以独立的、不可预测的方式通过采取精准行动而做出决策。一些学者认为,以大数据和算法匹配的人工智能正在不可逆转地重塑人类生活、工作和交往的方式,但与此同时也带来了公共安全风险、算法偏见问题、责任伦理问题等一系列的挑战。回溯人工智能发展历程,不管是符号主义、联结主义还是行为主义,其发展的核心是由数据驱动算法的不断升级和优化。数据是“基本驱动力”,而算法是“一种有限、确定、有效并适合用计算机程序来实现的解决问题的方法”。从技术底层逻辑来看,人工智能存在的不确定性风险主要来源于数据与算法:其一是数据的

3、不当收集和处理。人工智能的发展以海量信息作支撑,各类数据信息采集覆盖于数字化空间中,如个人身份、网络行为等。如不采取合理的治理措施,人类将面临隐私“裸奔”的尴尬局面,进而触发极大的伦理风险。其二是算法内在缺陷及其不当使用。在技术层面,算法就是一些复杂的电脑代码程式,并不具有情感或价值偏见,但是由于在编码、运用过程中离不开设计者和开发者的主观意志,有可能将个人情感、社会观、价值观嵌入技术中,造成如算法失算、算法歧视、算法“黑箱”、审查难等问题,从而导致人工智能的“脱靶”现象,即背离既定的正面目标而产生相反的破坏活动。像 ChatGPT,其强大的信息检索和数据存储功能确实给人类生活、工作带来了福祉

4、,但如不对输出加以控制,可能生成种族主义、性别歧视之类有偏见的内容或有害指令信息,扰乱社会公平和正义。 (摘编自刘丹鹤孙嘉悦人工智能规制政策制定的风险与治理)材料二: 在人机互动中,人具有思想和情感, ChatGPT在涉及人类情感的细微之处或措辞的把握上并不准确,例如,男女之间的语言通常带有性别化表述特征,ChatGPT在互动问答中将形成普遍性的或“非人非机”双向训练的“中性化”融合式表述方式,主体的个性化语言特质在ChatGPT互动中试图链接理解它的普遍化特征,在语言主体间性过程中形成的语言“混合物”将对其话语风格和语言伦理产生影响,这是从生活方式到表达方式的改变,语言的趋同化或同质化将被规

5、训并固定。这一改变是语言伦理领域的改变,表达方式的改变是文化学意义上的话语,但其不是语言伦理关于语言使用的道德准则和规范性话语价值的体现。赵汀阳认为,不能过于注重人工智能的“拟人化”,拟人化并不意味着否定有用性,而是人工智能试图拥有人的情感、价值观。人并不完美,将人工智能拟人化是非常可怕且消极的事情。真正的主体性在无限的驯化中成为智能机器人的训练客体,这是主体客体化的一种变现。ChatGPT将人的主体性话语转化为客体的结果,即人的语言物化症候。 ChatGPT的训练和被训练会规制与被规训,更加实在地呈现效果,如同ChatGPT掌控受众想象力的空间或方式,成为技术异化后统治人类的一门艺术。法

6、国学者勒庞在乌合之众:大众心理研究一书中指出:“影响民众想像力的,并不是事实本身,而是它们发生和引起注意的方式。如果让我表明看法的话,我会说,必须对它们进行浓缩加工,它们才会形成一种令人瞠目结舌的惊人形象。掌握了影响群众想像力的艺术,也就掌握了统治他们的艺术。”人的从众心理将转变为从智能机器人心理,在广泛的社会语境中被认为是个性化的叙事方式被人工智能以潜移默化的方式改变,语言的长期改变会渗透其情感认知、伦理行为和整体行为的走向,对人的价值信仰、态度和行为产生重要影响,这既是值得关注的科技哲学问题,又是伦理问题。 人工智能正在接管学术界甚至世界,即使这一担忧不是主要的,却将长期存在。人工智能模型可以快速复制已有学术文献,虽然其复制的文献没有出处,没有正确性的考证来源,但 ChatGPT会不断产生其认为的客观答案,生成虚假的学术文本,其对学术道德的影响是深远的。因此,使用人工智能模型时仍需谨慎,ChatGPT被视为“嘴替”或“文替”,数据的滥用或对知识的不完整性采用,将为错误信息的传播埋下风险和隐患。在使用ChatGPT的过程中要遵循

5.如图是ATP的结构简式,图中①②表示高能磷酸键。下列相关叙述错误的是A.②断裂后的产物可以直接与Pi结合形成ATPB.①断裂后的产物可作为合成RNA的原料C.②中的能量可以来自光能,也可以转化为光能D.细胞中的高能磷酸化合物不止ATP一种

1、2023年山东省滨州市高考语文二模试卷一、现代文阅读(本大题共9小题,共35.0分)阅读下面的文字,完成小题。 材料一: 人工智能是指通过分析其环境而具有一定程度的自主性行动,以实现特定目标而显示智能行为的系统。近来研究更趋向于将人工智能定义为建立在现代算法基础上,以历史数据为支撑而形成的具有感知、推理、学习、决策等思维活动并能够按照一定目标完成相应行为的计算系统。目前众多基于人工智能的系统已广泛应用,如搜索引擎通过处理海量数据,将原本混乱的互联网以人类可理解的、可感知的形式呈现出来;无人驾驶通过传感器感知环境而实现转向、加速和制动。这些为增强与替代人类的活动和任务提供了变革潜力,逐渐提升了人

2、类的感知、思考和对世界采取行动的能力。 人工智能具有以往技术无法企及的增强人类活动的特点,且在某种程度上以独立的、不可预测的方式通过采取精准行动而做出决策。一些学者认为,以大数据和算法匹配的人工智能正在不可逆转地重塑人类生活、工作和交往的方式,但与此同时也带来了公共安全风险、算法偏见问题、责任伦理问题等一系列的挑战。回溯人工智能发展历程,不管是符号主义、联结主义还是行为主义,其发展的核心是由数据驱动算法的不断升级和优化。数据是“基本驱动力”,而算法是“一种有限、确定、有效并适合用计算机程序来实现的解决问题的方法”。从技术底层逻辑来看,人工智能存在的不确定性风险主要来源于数据与算法:其一是数据的

3、不当收集和处理。人工智能的发展以海量信息作支撑,各类数据信息采集覆盖于数字化空间中,如个人身份、网络行为等。如不采取合理的治理措施,人类将面临隐私“裸奔”的尴尬局面,进而触发极大的伦理风险。其二是算法内在缺陷及其不当使用。在技术层面,算法就是一些复杂的电脑代码程式,并不具有情感或价值偏见,但是由于在编码、运用过程中离不开设计者和开发者的主观意志,有可能将个人情感、社会观、价值观嵌入技术中,造成如算法失算、算法歧视、算法“黑箱”、审查难等问题,从而导致人工智能的“脱靶”现象,即背离既定的正面目标而产生相反的破坏活动。像 ChatGPT,其强大的信息检索和数据存储功能确实给人类生活、工作带来了福祉

4、,但如不对输出加以控制,可能生成种族主义、性别歧视之类有偏见的内容或有害指令信息,扰乱社会公平和正义。 (摘编自刘丹鹤孙嘉悦人工智能规制政策制定的风险与治理)材料二: 在人机互动中,人具有思想和情感, ChatGPT在涉及人类情感的细微之处或措辞的把握上并不准确,例如,男女之间的语言通常带有性别化表述特征,ChatGPT在互动问答中将形成普遍性的或“非人非机”双向训练的“中性化”融合式表述方式,主体的个性化语言特质在ChatGPT互动中试图链接理解它的普遍化特征,在语言主体间性过程中形成的语言“混合物”将对其话语风格和语言伦理产生影响,这是从生活方式到表达方式的改变,语言的趋同化或同质化将被规

5、训并固定。这一改变是语言伦理领域的改变,表达方式的改变是文化学意义上的话语,但其不是语言伦理关于语言使用的道德准则和规范性话语价值的体现。赵汀阳认为,不能过于注重人工智能的“拟人化”,拟人化并不意味着否定有用性,而是人工智能试图拥有人的情感、价值观。人并不完美,将人工智能拟人化是非常可怕且消极的事情。真正的主体性在无限的驯化中成为智能机器人的训练客体,这是主体客体化的一种变现。ChatGPT将人的主体性话语转化为客体的结果,即人的语言物化症候。 ChatGPT的训练和被训练会规制与被规训,更加实在地呈现效果,如同ChatGPT掌控受众想象力的空间或方式,成为技术异化后统治人类的一门艺术。法

6、国学者勒庞在乌合之众:大众心理研究一书中指出:“影响民众想像力的,并不是事实本身,而是它们发生和引起注意的方式。如果让我表明看法的话,我会说,必须对它们进行浓缩加工,它们才会形成一种令人瞠目结舌的惊人形象。掌握了影响群众想像力的艺术,也就掌握了统治他们的艺术。”人的从众心理将转变为从智能机器人心理,在广泛的社会语境中被认为是个性化的叙事方式被人工智能以潜移默化的方式改变,语言的长期改变会渗透其情感认知、伦理行为和整体行为的走向,对人的价值信仰、态度和行为产生重要影响,这既是值得关注的科技哲学问题,又是伦理问题。 人工智能正在接管学术界甚至世界,即使这一担忧不是主要的,却将长期存在。人工智能模型可以快速复制已有学术文献,虽然其复制的文献没有出处,没有正确性的考证来源,但 ChatGPT会不断产生其认为的客观答案,生成虚假的学术文本,其对学术道德的影响是深远的。因此,使用人工智能模型时仍需谨慎,ChatGPT被视为“嘴替”或“文替”,数据的滥用或对知识的不完整性采用,将为错误信息的传播埋下风险和隐患。在使用ChatGPT的过程中要遵循

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。
本文地址:/shijuan/jctb/gs/147835.html

[!--temp.pl--]