大语言模型赋能人文社科研究:混合量化设计框架与实践指南

news2026/5/9 20:07:56
1. 项目概述当“文科”遇见“大模型”“大语言模型赋能人文社科研究”这个标题乍一听可能有点“跨界”的意味。在很多人印象里人文社科研究——无论是历史学、社会学、文学还是哲学——其核心是思辨、诠释与批判是“文科生”在故纸堆里皓首穷经或者通过访谈、观察去理解复杂的社会肌理。而大语言模型LLM作为人工智能领域最前沿的技术之一似乎天然属于“理科”或“工科”的范畴是代码、算法和算力的产物。这两者如何结合是噱头还是真的能带来研究范式的革新作为一名长期在交叉学科领域摸索的研究者我亲身经历了从最初的怀疑、试探到如今将大模型深度融入研究流程的转变。我的体会是这绝非简单的“用AI写论文”而是一场深刻的方法论升级。大语言模型特别是其强大的文本理解、生成、推理和结构化能力正在成为人文社科研究者手中前所未有的“超级工具”。它无法替代研究者的核心洞见与价值判断但它能以前所未有的效率与广度辅助研究者处理海量文本、挖掘潜在模式、激发新的研究问题甚至重构研究设计本身。“混合量化设计框架”正是这一结合的关键。它不是一个固定的软件或平台而是一套方法论和操作流程。其核心在于将大语言模型的计算能力处理非结构化文本、进行语义编码与传统量化研究方法统计分析、因果推断、网络分析等有机融合形成“定性理解-量化分析-深度阐释”的闭环。简单说就是用大模型把“文科”的文本材料转化为“理科”可以处理的量化数据再用“文科”的智慧去解读这些数据背后的社会文化意义。这解决了传统内容分析、问卷调查等方法中人工编码耗时耗力、主观性强、难以处理超大规模语料等痛点。这篇文章我将结合自己近一年的实践拆解这套框架从设计思路到具体落地的全过程。无论你是人文社科领域的研究生、青年教师还是对数字人文、计算社会科学感兴趣的同仁都能从中找到可以直接“抄作业”的路径、避坑的经验以及对这个领域未来发展的个人思考。2. 混合量化设计框架的核心思路与架构2.1 为什么是“混合”而不仅仅是“量化”传统的人文社科量化研究其数据源头往往是结构化的调查问卷的选项、经济统计数据、投票记录等。但人文社科研究的富矿恰恰存在于非结构化的文本之中——历史档案、新闻报道、小说戏剧、社交媒体帖子、访谈转录稿、政策文件等。过去研究者要利用这些材料进行量化分析主要依赖“内容分析法”即人工阅读、制定编码手册、训练编码员、进行信度检验。这个过程不仅极其繁重而且规模有限编码框架一旦确定便难以灵活调整。大语言模型的出现改变了游戏规则。它本质上是一个经过海量文本训练的、深谙语言规律的“超级编码员”。我们可以引导它按照我们的研究问题对非结构化文本进行自动化、半自动化的“编码”或“标注”。例如让模型判断一段社论的情感倾向是“支持”、“反对”还是“中立”从人物传记中提取其社会网络关系对访谈内容进行主题归类甚至评估文本中体现的某种价值观的强度。但是如果仅仅到此为止那只是用AI做了人工编码的替代工作价值有限。“混合”框架的精髓在于后续两步量化转换与建模将大模型输出的、经过初步结构化的标注结果如情感标签、主题类别、实体关系转化为标准的量化数据集。然后导入到SPSS、Stata、R或Python的Pandas/NumPy环境中进行描述性统计、相关性分析、回归模型、社会网络分析、时间序列分析等。循环迭代与深度阐释量化分析的结果例如发现A主题与B情感显著相关会反过来启发研究者提出新的质性研究问题。此时可以再次利用大模型对原始文本中特定的、相关的片段进行深度挖掘、对比或生成摘要辅助研究者进行理论构建和意义阐释。这个“文本→大模型→结构化数据→统计工具→量化发现→研究者大模型→质性阐释”的循环才是“混合”框架的真正威力所在。它让数据驱动的研究与理论驱动的研究不再是两条平行线而是形成了相互滋养、不断深化的螺旋。2.2 框架的四大核心模块基于上述思路一个可操作的混合量化设计框架通常包含以下四个模块模块一研究问题与文本语料库构建这是所有研究的起点。你需要明确你的核心研究问题并据此收集和整理你的文本数据。这可能来自数据库如CNKI、Web of Science、开放网络如特定新闻网站、社交媒体API、或自行扫描整理的档案材料。关键点在于语料库的边界要清晰质量要可控并且最好能进行初步的清洗去除无关信息、统一格式等。注意数据版权和伦理是首要问题。使用公开数据或已获授权数据对社交媒体数据需进行匿名化处理并严格遵守相关平台的使用条款和研究伦理规范。模块二大模型驱动的文本标注与特征提取这是技术核心。你需要设计“提示词”Prompt引导大模型完成特定的标注任务。这不仅仅是简单的提问而是需要精心设计的一套“指令-示例-输出格式”组合。指令清晰、无歧义地告诉模型要做什么。示例Few-shot Learning提供几个高质量的输入-输出样例让模型更好地理解任务。输出格式明确要求模型以特定格式如JSON、CSV输出便于后续程序化处理。例如研究近代中国知识分子思想变迁你的提示词可能是你是一位历史研究助理。请分析以下文本段落并完成两项任务 1. 判断该段落主要表达的思想倾向类别A. 激进革新 B. 温和改良 C. 文化守成 D. 其他请简要说明。 2. 提取段落中提到的核心人物或组织名称若有。 请严格按照以下JSON格式输出 {思想倾向: 选项字母, 倾向说明: 一句话解释, 核心实体: [实体1, 实体2, ...]} 示例 输入“盖今日之变非枝节修补可救必也釜底抽薪涤荡旧污方有生机。” 输出{思想倾向: A, 倾向说明: 主张彻底变革否定渐进改良, 核心实体: []} 现在请分析 输入[待分析的文本段落] 输出模块三量化数据分析与可视化将模块二输出的JSON或CSV结果整理成数据框DataFrame。接下来你就可以像处理任何量化数据一样进行操作描述性统计各类思想倾向的分布比例、核心实体的出现频率。交叉分析不同时期如果你有时间变量思想倾向的演变趋势。关联分析某些实体是否更频繁地与特定思想倾向同时出现网络分析如果提取了人物-组织关系可以构建共现网络分析思想群体的结构。回归模型如果你想探究思想倾向作为因变量与文本特征如长度、用词复杂度或其他外部变量如作者背景的关系。工具上R的tidyverse套件、Python的pandas、scikit-learn、networkx以及专业的Gephi网络可视化都是得力助手。模块四解释性循环与理论构建当量化分析呈现出有趣的模式或矛盾时研究并未结束。这时需要回到原始文本。深度查询你可以用大模型对量化发现进行“溯源”。例如“找出所有被标注为‘激进革新’且提到了‘梁启超’的段落并总结他们在对待传统文化态度上的共同点和差异。”矛盾排查对于模型标注信心较低或结果异常的样本进行人工复核这既能检验模型可靠性也可能发现新的研究线索。理论对话将你的数据发现与既有理论进行对话用大模型辅助生成初步的阐释文本或梳理相关学术脉络但最终的理论升华和论证必须由研究者本人完成。2.3 工具选型闭源 vs. 开源云端 vs. 本地这是实践中的第一个关键决策点。闭源/商用API如GPT-4、Claude、文心一言、通义千问优点上手快能力强大尤其在复杂推理、指令遵循方面无需本地算力通常提供便捷的API。缺点持续使用成本高数据需上传至厂商服务器涉及敏感文本如未公开访谈录时有隐私风险模型更新不可控可能影响实验可复现性。适用场景探索性研究、原型验证、处理对推理能力要求高的复杂标注任务。开源模型如Llama 3系列、Qwen系列、ChatGLM3等本地部署优点数据完全本地隐私和安全有保障一次部署长期稳定复现性好可根据需要微调Fine-tune以适应特定领域。缺点需要一定的技术知识Docker、Python环境等和硬件资源GPU显存同等参数规模下通用能力可能略逊于顶级闭源模型。适用场景处理敏感数据的大规模标注任务需要长期、稳定、可复现的研究流程经费有限但拥有计算资源。实操心得我的策略是“混合使用”。在框架设计、提示词工程调试阶段使用GPT-4 API进行快速迭代因为它对复杂指令的理解和反馈更优。一旦提示词流程稳定需要处理大批量、或涉及内部敏感数据时则切换到本地部署的Qwen-72B或Llama3-70B模型。现在7B-14B参数级别的优秀模型如Qwen1.5-14B, Llama3-8B在消费级显卡如RTX 4090上已能流畅运行对于许多分类、提取任务足够胜任。3. 核心环节实操从提示词工程到数据管道3.1 设计高效、鲁棒的提示词提示词的质量直接决定标注结果的可靠性。经过大量试错我总结出以下几个原则角色扮演开头为模型赋予一个与研究相关的专业角色如“资深社会学家”、“文本分析专家”这能有效约束其输出风格和思考角度。任务分解复杂任务分解为多个简单、顺序执行的子任务。例如不要直接让模型“分析文本情感并提取原因”而是先“判断情感极性”再“如果为负面/正面请提取导致该情感的关键原因”。格式先行在给出示例前就先明确输出格式JSON、XML、带分隔符的文本。这比在示例中隐含格式要求效果更稳定。提供“锚点”示例示例不仅要展示“正确”情况最好也能包含1-2个边界模糊或容易出错的案例并展示模型应如何处理。这能提升模型对复杂情况的判断力。设置“安全网”对于分类任务务必设置“无法判断”或“其他”类别并让模型在信心不足时选择此项避免其强行给出一个可能错误的答案。一个改进后的提示词示例研究社交媒体舆论对政策事件的反应你是一位计算社会科学研究员擅长对社交媒体文本进行精细化的情感与主题分析。 请对以下微博帖子完成分析 [帖子内容] 请按步骤思考 1. 识别帖子提及的核心政策事件如“XX条例修订”、“YY项目启动”。若无明确事件则写“无”。 2. 判断帖子对该事件或相关主体的整体情感倾向积极、消极、中性、混合同时包含强烈正反情绪。 3. 如果情感是积极、消极或混合请从文本中列出1-3个支撑该情感的核心观点或理由直接引述或简短概括。 4. 判断帖子是否包含对政策制定者如某部门、某官员的明确呼吁或建议。是/否。 请严格按照以下JSON格式输出确保键名完全一致 { 核心事件: 字符串, 情感倾向: 字符串, 情感依据: [字符串1, 字符串2, ...], 包含呼吁: true/false } 示例1积极 输入“这次新规终于出来了早就该管管那些乱象了给监管部门点个赞希望执行到位。” 输出{核心事件: 新规发布, 情感倾向: 积极, 情感依据: [认为新规能治理乱象, 赞赏监管部门], 包含呼吁: true} 示例2混合 输入“政策初衷是好的但一刀切的做法会不会误伤我们这些小商家落实细节还得再看看。” 输出{核心事件: 新规发布, 情感倾向: 混合, 情感依据: [肯定政策初衷, 担忧一刀切误伤小商家], 包含呼吁: false} 现在请分析 输入[待分析帖子] 输出3.2 构建自动化数据处理管道手动复制粘贴提示词到网页界面是不可持续的。我们需要构建自动化的管道。这里以Python为例展示一个简易但完整的流程。import openai # 或调用本地模型的库如 transformers, vllm import pandas as pd import json import time from tqdm import tqdm # 1. 加载语料 df pd.read_csv(your_corpus.csv) # 假设有一列叫text texts df[text].tolist() # 2. 定义提示词模板和解析函数 prompt_template 你是一位计算社会科学研究员... [同上此处省略] 请分析以下微博帖子 {text} 输出 def analyze_text_with_llm(text, client, modelgpt-4-turbo): 调用大模型API进行分析 prompt prompt_template.format(texttext) try: response client.chat.completions.create( modelmodel, messages[{role: user, content: prompt}], temperature0.1, # 低温度保证输出稳定性 response_format{type: json_object} # 要求返回JSON ) result response.choices[0].message.content return json.loads(result) except Exception as e: print(f处理文本时出错: {e}) return {核心事件: ERROR, 情感倾向: ERROR, 情感依据: [], 包含呼吁: None} # 3. 初始化客户端并批量处理 # 对于OpenAI client openai.OpenAI(api_keyyour_api_key) # 对于本地模型需使用不同的加载和调用方式例如使用vLLM # from vllm import LLM, SamplingParams # llm LLM(modelyour/local/model/path) # ... results [] for text in tqdm(texts): result analyze_text_with_llm(text, client) results.append(result) time.sleep(0.5) # 控制请求频率避免触发速率限制 # 4. 整合结果 df_results pd.DataFrame(results) final_df pd.concat([df, df_results], axis1) # 5. 保存 final_df.to_csv(analyzed_corpus.csv, indexFalse, encodingutf-8-sig)注意事项速率限制与错误处理所有API都有调用频率限制必须加入time.sleep()和try...except进行控制。成本控制闭源API按Token收费在处理前估算总Token消耗可用tiktoken库。对于超长文本考虑先做摘要再分析或使用支持长上下文的模型。结果校验随机抽取3%-5%的结果进行人工复核计算与模型结果的一致性如Cohen‘s Kappa评估标注质量。3.3 量化分析阶段的关键操作拿到analyzed_corpus.csv后我们进入熟悉的量化分析领域。import pandas as pd import matplotlib.pyplot as plt import seaborn as sns from sklearn.feature_extraction.text import CountVectorizer # 假设我们已经有了包含分析结果的DataFrame df # 1. 描述性统计 print(df[情感倾向].value_counts(normalizeTrue)) # 情感分布比例 print(df[核心事件].value_counts().head(10)) # 最常被提及的事件TOP10 # 2. 情感随时间的演变假设df有‘post_time’列 df[post_date] pd.to_datetime(df[post_time]).dt.date sentiment_trend df.groupby([post_date, 情感倾向]).size().unstack(fill_value0) sentiment_trend.plot(kindarea, stackedTrue, figsize(12,6)) plt.title(社交媒体情感倾向随时间演变) plt.tight_layout() plt.show() # 3. 情感与是否包含呼吁的关联分析 contingency_table pd.crosstab(df[情感倾向], df[包含呼吁]) print(contingency_table) # 可以进行卡方检验 from scipy.stats import chi2_contingency chi2, p, dof, expected chi2_contingency(contingency_table) print(f卡方值: {chi2:.2f}, p值: {p:.4f}) # 4. 基于‘情感依据’的词频分析以消极情感为例 negative_reasons df[df[情感倾向]消极][情感依据].explode().dropna() all_reason_text .join(negative_reasons.astype(str)) vectorizer CountVectorizer(stop_wordschinese) # 需中文停用词表 X vectorizer.fit_transform([all_reason_text]) reason_freq pd.DataFrame(X.toarray(), columnsvectorizer.get_feature_names_out()).T reason_freq.columns [频次] print(reason_freq.sort_values(频次, ascendingFalse).head(20))通过这些分析你可能会发现“在A事件中消极情绪帖子显著更可能包含对政策制定者的直接呼吁p0.01”而“消极情绪的主要理由集中在‘执行不力’和‘缺乏沟通’两个关键词上”。这些发现就为后续的深度阐释提供了坚实的、数据驱动的切入点。4. 混合研究中的效度挑战与应对策略将大模型引入研究流程最大的质疑来自其结果的“效度”Validity。模型的标注是否可靠是否反映了真实的文本含义这需要我们从多个层面进行保障和验证。4.1 信度检验模型标注的一致性内部一致性对于同一任务使用相同的提示词让模型对同一批文本在不同时间或轻微扰动输入进行多次标注计算其自身结果的一致性。模型间一致性使用另一个同级别或更高级别的模型如用GPT-4标注后再用Claude标注一个子样本比较两者结果的一致性。高一致性可以增强信心。人-机一致性这是黄金标准。随机抽取足够数量的样本通常300-500条由经过训练的人类编码员进行独立编码然后计算人类编码员之间的一致性Inter-coder Reliability以及人类编码与模型编码之间的一致性。Cohen‘s Kappa系数是常用指标。实操心得不要追求100%的人-机一致。大模型的优势在于处理海量数据其标注可以看作是一种“带有可测量偏差的自动化工具”。只要这种偏差是稳定的、可测量的并且人-机一致性达到可接受水平如Kappa 0.6我们就可以在明确说明此局限性的前提下使用其结果。关键在于要将模型的“不确定性”也纳入分析例如记录模型输出时的“置信度分数”如果模型提供或对低置信度样本进行敏感性分析。4.2 效度提升提示词迭代与领域适配迭代开发提示词将提示词工程视为软件开发。设计→在小样本上测试→人工评估结果→修改提示词→再测试。这个过程可能循环很多次。领域知识注入在提示词中直接提供领域相关的定义、分类标准或背景知识。例如在研究政治意识形态时直接给出“自由主义”、“保守主义”在你研究语境下的操作化定义。少样本学习与思维链提供高质量、多样化的示例Few-shot能极大提升模型在特定任务上的表现。对于复杂推理任务要求模型“逐步思考”Chain-of-Thought往往比直接要答案更准。微调模型对于有足够标注数据几千条且任务非常专一的场景可以考虑对开源基座模型进行监督微调SFT得到一个完全适应你任务的专属模型。这能获得最高的准确率和稳定性但成本和技术要求也更高。4.3 三角验证与其他方法互证混合方法的优势在于“三角验证”。不要只依赖大模型一种方法。与传统内容分析互证用大模型快速处理全样本同时用传统人工内容分析法深度分析一个随机子样本比较主要结论是否一致。与词典法互证使用已有的情感词典如中文的“知网Hownet情感词典”进行情感分析与大模型的结果进行对比分析差异及其原因。与调查数据互证如果你的研究问题涉及公众态度可以将大模型对公开文本的分析结果与严谨的抽样调查结果进行对比探讨线上表达与线下态度之间的关系。通过这种多方法、多证据的交叉验证你的研究结论的稳健性会大大增强。5. 实践案例大模型如何辅助一项思想史研究让我用一个简化但真实的研究片段来具体说明。我曾参与一项关于“某近代思潮在报刊言论中演变”的研究。目标分析近十年间主流报纸社论中关于“科技与人文”讨论的框架变迁。语料从数据库中爬取并清洗了约5000篇相关社论。大模型任务设计任务一框架识别提示词引导模型判断每篇社论的主导论述框架是“技术乐观论”、“技术批判论”、“调和论”还是“其他”。任务二主题提取识别文中讨论的具体科技议题如“人工智能”、“基因编辑”、“大数据隐私”。任务三修辞分析提取文中使用的关键隐喻如“双刃剑”、“洪水猛兽”、“引擎”。量化分析按年份统计各框架比例发现“技术批判论”框架占比在特定事件年后显著上升。做框架与科技议题的共现网络发现“人工智能”与“技术批判论”关联最强。分析“技术批判论”文章中高频隐喻的变迁发现从“失控的怪兽”逐渐转向“需要缰绳的骏马”。深度阐释循环量化发现提示我们“技术批判论”的兴起是否与具体的社会事件有关我们让模型筛选出“技术批判论”文章中提及具体事件或案例的段落发现多与几起知名的科技伦理争议事件时间点吻合。针对“隐喻变迁”我们让人工精读相关文本发现修辞的软化可能与行业自我规制话语的兴起有关。我们再用模型批量提取文中关于“治理”、“规制”、“伦理委员会”等词汇的上下文验证了这一假设。整个过程中大模型承担了初筛、编码、模式提示的繁重工作让我们团队能将宝贵的人力集中在最关键的理论构建和深度解读环节。研究效率提升了不止一个数量级且因为分析覆盖了全样本我们发现了许多过去抽样阅读时容易忽略的、细微但重要的模式。6. 常见陷阱、伦理考量与未来展望6.1 实操中容易踩的“坑”盲目信任“黑箱”直接把模型输出当真理。必须进行人工校验和效度评估。提示词设计过于简单导致模型输出不稳定或不符合预期。投入足够时间进行提示词迭代。忽略上下文长度限制模型有Token限制。对于长文档需要设计分块、摘要或使用长上下文模型策略。成本失控使用闭源API前未做预算估算。从小样本开始监控Token消耗设定预算警报。可复现性灾难闭源模型更新、提示词版本未保存、代码环境未记录导致几个月后无法复现结果。务必做好版本控制Git、记录模型版本和完整提示词、使用环境管理工具Conda, Docker。混淆相关与因果大模型帮你发现了A和B在文本中常一起出现但这不意味着A导致B。因果推断需要更严谨的研究设计。6.2 无法回避的伦理问题数据隐私与知情同意分析公开文本是否等于可以任意研究涉及个人可识别信息时必须进行匿名化处理。使用社交媒体数据时尤其要谨慎最好遵循平台条款并考虑获取知情同意对于非公开内容。偏见放大大模型本身训练数据中存在的社会偏见如性别、种族、地域偏见可能会在你的研究标注中复现甚至放大。需要在提示词中明确要求其避免偏见并对结果进行偏见审计。研究透明性必须在论文中详细说明使用了哪个模型名称、版本、具体的提示词可放在附录、数据处理流程、以及效度检验结果。这是学术诚信的基本要求。对人类研究者的影响这更多是一个学术共同体需要思考的问题。大模型是辅助工具不应替代研究者的批判性思维、理论素养和人文关怀。研究的终极价值依然在于增进我们对人性和社会的理解。6.3 个人体会与展望从我个人的实践来看大语言模型不是人文社科研究的“终结者”而是“赋能者”。它把研究者从重复性、机械性的劳动中解放出来让我们能更专注于只有人类才能胜任的创造性工作提出深刻的问题、建立巧妙的联系、进行富有洞察力的阐释。未来我期待看到更多“领域专家”与“技术工具”的深度融合。可能会出现为特定学科如历史学、文学批评量身定制的微调模型或专用工具链。提示词工程可能会发展成一门“研究设计语言学”。而最根本的是研究方法论教材中将会加入“混合量化设计”的专门章节。这条路才刚刚开始。对于人文社科研究者而言现在拥抱这项技术不是追赶时髦而是在掌握一门即将成为基础素养的新“语言”。这个过程会有学习成本会遭遇挫折但当你第一次用几行代码和巧妙的提示从数万页文本中验证了一个萦绕心头许久的假设时那种兴奋感无疑是研究中最美妙的奖赏之一。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2598541.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…