【数据化研究】王惟晋:西方文本资料数据化对国际关系研究的影响
简
王惟晋
中山大学国际关系学院博士后研究人员主要研究国际关系理论中国外交中欧关系。
【摘 要】文本是国际关系研究必不可少的资料形式。为了更方便地管理和分析文本西方 国际关系学界越来越多地将文本内容转化为数据并整合成库。信息技术的发展使机器逐步代替研究者进行文本数据的搜集编码和分析对基于文本开展的国际关系研究贡献良多。然而数据本质上是意义单一的符号数据化的过程会排除话语的背景信息和深刻内涵若研究者以不适当的方式处理数据化文本资料则研究结论的可靠性就会大打折扣。对此国际关系研究者应加强发展后实证主义方法确保研究的内在逻辑性重视通过人际交流检验结论以克服数据化文本资料的局限性。
【关键词】国际关系 文本研究 研究方法 研究智能化 数据化
国际关系研究者常常借助媒体报道历史档案、政府报告学术文献等文字材料观察和研究国家间的现象和行为。但是研究者搜集的原始文本资料内容通常庞杂无序这让研究者很难找到问题中的关键因子无法进行有效的分析操作。对此许多国际关系研究者将搜集到的文本资料进行数据化处理建立了大量数据库实时记录和分析国际事件等。由于存在重视实证主义与定量研究方法的学术传统美国学界在国际关系研究文本的数据化方面可谓世界的领导者拥有世界上大部分的著名数据库; 单就公众舆论数据库而言美国校际政治及社会研究联盟( Inter -University Consortium for Political and Socialesearch2011 年前后便已收录 1889 个当中包含 500 多万组变量规模远超其他国家美国还是先行者最早在国际关系研究领域开展和应用文本资料数据化还及时将大数据技术引入至数据库建设中现已建立了相对成熟的国际关系大数据分析系统。欧洲的学术传统则更注重抽象思辨更多学者以诠释学的路径开展研究因此对数据化的文本资料采取了更谨慎的态度所建此类数据库数量上比美国少但也取得了不少成果近年亦有学术团队正以大数据技术建设国际关系数据库。许多中国国际关系学者认为这是大势所趋并将在技术层面引起分析手段和决策模式的革命 然而在信息科学领域学者们一致认为文本数据即便质量再好归根到底也无法表达话语中的隐晦含义这种含义能体现国际行为体的价值观规范和身份认同因此经过数据化处理的文本资料可对国际关系研究产生潜在影响。换言之文本信息数据化对于国际关系研究的影响不但在于数据分析技术层面还可源自文本内容本质。但是目前从数据本质的角度对文本信息数据化的影响进行的思考尚有不足这导致学界对于国际关系研究数据化的认识还有很大空间。本文拟对此做出进一步探讨以期更好地认识数据的本质和文本资料数据化对国际关系研究的影响进而使国际关系的文本数据处理能够更好地服务于学术研究与国家决策。
一、国际关系文本资料的数据化
数据是人类观察自然和社会后用于表达事物、时间、地点等信息的标记或符号,其内容意义被抽离于具体的历史社会环境。数据化是将研究材料编码整理成为可用于操作分析的符号之过程,也是人们将自己无形的主观理解转化为有形的客观事实之过程。研究者分析数据的目的是创造信息、知识和智慧。
为了更好地分析国际社会的现象和行为,西方国际关系研究者很早便搜集和编码新闻报道、历史 档案、政府文件等文本资料,将文本内容转化成数据 并整合成库。自20世纪60年代至今,国际关系文本资料数据库的建设从开始兴起到加速发展,呈现出三个突出特点。
第一个特点是自动化数据挖掘。在20世纪90年代前,文本资料的收集和编码均由人工处理。比如在美国,查尔斯·麦克兰德( Charles McClelland) 于 1966 年创立“世界事件互动调查数据库”( World Event Interaction Survey) 时,其研究团队成员自行搜集《纽约时报》的报道,阅读报道内容,用纸、笔将相 关内容转化成各种变量,再将变量整合为数据集、组合成库。类似的著名数据库还有大卫·辛格( David Singer)于1963年建立的“战争相关指数数据库” ( the Behavioral Correlates of War); 爱德华·阿扎尔( Edward Azar)主持的“冲突与和平数据库”( The Conflict and Peace Data Bank) 项目。在欧洲,欧共体于 1974 年建立“欧洲晴雨表”( Eurobarometer),将研究者通过访谈民众得来的文本资料转化成为量化数据,以便监测与研究舆情的变化。由于收集与编码文本均依赖人力,这些数据库建设效率相对低下,比如“战争相关指数数据库”中的数据集经历数年才更新一次,这让数据库无法紧贴时 势发展,影响学术价值。20世纪90年代起,西方国际关系学者编写程序对文本资料进行编码,建库效率大幅提升。在这个时期,此类有影响力的数据库集中在美国。典型的例子有德博拉·格尔纳(Deborah Gerner)主持开发的“堪萨斯事件数据系统”( Kansas Events Data System) ,加里·京格 ( Gary King) 与威尔·洛维( Will Lowe)构建的“事件分析综合数据”( the Integrated Data for Events Analysis),约翰·戴维斯( John Davies)开发的“全球事 件数据系统”( The Global Event-Data System),肖恩·奥布莱恩( Sean O’ Brien) 开发的“整合性冲突早期预警系统”( the Integrated Conflict Early Warning System) 等等。但是,这些数据库只在文本编码层面实现了自动化,研究者仍须自行搜集文本资料、录入程序中加以编码,依然难以做到根据形势实时更新数据,令数据库的学术价值同样受限。
2010 年后,大数据技术深刻地影响国际关系文本资料的数据化进程。此时计算机已能代替研究者自行收集文本,以每天甚至每小时的频率对文本编 码并更新数据库。在美国国际关系学界,卡里夫·利塔鲁( Kalev Leetaru) 与菲利普·施罗德( Philip Schrodt) 于 2013 年建立的“全球事件话语数据库”( the Global Database of Event Language and Tone)正以每日更新约70亿字节的速度自动记录1979年1月1日迄今全球媒体报道国内和国际层面发生的事件。基于 Python 语言构建的“凤凰实时事件数据集”( Pheonix Near-Real-Time Event Dataset) 则能每小时自动从400多个网站上搜集文本资料并对其编码。在欧洲,荷兰莱顿大学的“和平情报实验室”( Peace Informatics Lab)下属“未来基地”( Future Base) 计划开发新的软件自动搜集、整合和分析全球 的文本资料数据,以帮助国家安全部门制定最佳的 防务政策。由于文本收集和编码均实现自动化,新的国际关系文本数据库大幅提升了数据生产效率,使数据库建设可紧贴国际形势的变化。
第二个特点是大数据体量动态增长。1990年前,国际关系文本资料数据库体量主要以百万字节( MB) 为单位。20世纪60年代建立的“世界事件互 动调查数据库”数据集的大小只有30多MB。“冲突与和平数据库”项目在 20 世纪 60 年代中期至 1978 年的数据体量也是30多MB。同时期建立的“战争相关指数项目数据库”记录 1816~1979 年战争变量的单个数据总量不过2MB。这些数据库的体量增长依靠研究者手工劳动补充数据集,受制于经费或人事变动等现实因素,数据增长进程容易遭遇干扰或中断而缺乏持续性,所以研究者无法以接近实时的方式更新数据,数据库的体量增长往往有限而且容易穷尽。
20世纪90年代国际关系文本资料编码实现自动化后,数据库的体量依然不大。由于研究的文本资料来源主要依赖《纽约时报》、路透社等权威媒体,当时数据库体量增加幅度有限。菲利普·施罗德通过“堪萨斯事件数据系统”构建的一个数据集体量只有几百KB(千字节)左右。“整合性冲突早期预警系统”一年更新的数据量约为200MB。
大数据技术应用后,国际关系数据库的文本来源不再局限于权威媒体,而是借助现代信息技术有了大幅拓宽,人们在社交网络上发布的内容亦可成为分析对象。加上云储存技术的不断发展为大体量数据的管理和分享创造了空间,2010年后,国际关系文本资料的数据库体量呈现指数级别增长,从过往的千字节级别发展至万亿字节(TB)甚至千万亿字节(PB)级别。由于实现了机器自动收集和编码文本,数据库体量可自动增加,若研究者能妥善经营,数据库的体量并不会穷尽。在美国,“凤凰实时事件数据集”平均每天能自动记录全球约3000项事件。而“全球事件话语数据库”一年的数据体量便超过2.5TB,其间记录超过7500亿条人们对国际事件的态度和15亿条国际事件发生的位置数据。在欧洲,国际关系学界应用大数据不如美国早和快,但也在不断进展。比如“和平情报实验室”项目计划在2018~2023年间建成大数据平台的数据体量也能自动实现增长,及时为公共及私营部门提供决策建议依据。
第三个特点是机器代替人成为数据分析的主体。过去的电脑只擅长处理重复、规律的计算工作,并没有解读数据意义的能力,即便20世纪90年后机器代替研究者对文本进行编码,计算机仍无法取代研究者进行数据分析,只能作为研究者的分析工具。在大数据技术和理念进入国际关系研究领域后,数据分析须实时进行,而人单凭自身有限的时间和精力难以适应。随着人工智能技术特别是自然语言处理技术的发展,机器具备了从持续的数据归纳总结中学习的能力,这使计算机分析技术不再局限于从数学模型和公式中推导出结果,电脑对于文字的处理不再拘泥于句法和语义规则的理性分析,而是更多通过机器学习的方法,逐渐提升解读文本中意义的能力。
由于有了结合环境解读文本意义的能力,计算机能从无结构的文本内容中辨别说话者的行为模式,当下的机器由此具备了一定的冲突预测能力。现今许多国际关系数据库不但可提供数据挖掘服务,还可帮助研究者进行数据分析。在美国,基于“堪萨斯事件数据系统”发展而成“帕卢斯分析系统”(ParusAnalyticalSystem)能自动分析和预测国际冲突。由于机器分析能节省大量人力物力,开发者彼得·施罗德凭一己之力便可成立一家公司,为全球客户提供咨询服务。IMB公司依据自然语言处理技术开发了Watson系统,该系统能通过不断与人交流逐渐理解文本话语的意义,也具备分析国际问题的能力。在欧洲,塞浦路斯大学的安得利斯·安德鲁(AndreasAndreou)和希腊银行研究部的乔治·祖巴纳基斯(GeorgeZombanakis)也宣称使用机器学习技术成功预测了希腊与土耳其的军备竞赛态势。简而言之,此时计算机从过往被人操作的分析工具逐渐转变为研究分析文本的主体,有能力实时监测国际关系形势,为决策者提供行动建议。
综上所述,数据化趋势为国际关系的文本研究提供了越来越大的便利,日益深刻地影响到国际关系研究的形式和内容,发挥了不可替代的重要作用。
二、文本资料数据化对国际关系研究的贡献
文本研究数据化为分析、研究活动带来了空前的便利和效率,促进了国际关系研究在形式和内容上的革新,具有重大的历史性贡献。
第一,数据化可提升国际关系文本研究的灵活性。原始文本资料的内容不如数字般有大小之分,许多文字、词组表达常是多义的,内涵容易混淆,内容结构不明显。这使研究者在大容量的阅读后即便 思维再敏锐也难以准确区分不同内容间的主次关 系,无法提取关键变量或概念进行分析处理,只能依 赖主观判断进行诠释。
对此,研究者可通过数据化将复杂的话语内容转化成表达精炼的文字或数字标签,由于这些标签通常是单义的,能最大限度避免歧义,由此可以更确切无误地将各类内容信息分类整理,避免混淆,让不同内容之间的结构变得清晰,明确文本描述的事物之间相互关系。基于此,研究者能更容易地从文本资料中辨认并提炼分析所需的变量或概念,继而可用更多分析工具和设计技巧研究文本资料,提升国际关系文本研究模式的多样性。比如克里斯蒂安·格莱迪许( Kristian Gleditsch) 和迈克尔· 沃德 ( Michael Ward) 在“战争相关指数数据库”的基础上将国家间的政治亲密度转换成连续型变量并建立数据库,其他研究者便可更轻松地应用各类统计学模型对媒体报道内容进行计量分析,大幅提升了文本内容的可操作性。查理·卡彭特( Charli Carpenter) 收集访谈资料后,用质性编码的手段将因战时性暴力而出生的儿童面临的困境精炼成意义单一的文字标签,而后根据不同标签在文本资料出现的次数判断这些儿童面临的主要危机,以客观的方式验证这些儿童得不到国际倡议组织关注的原因,让基于文本操作的国际关系研究实现理论检验的功能。随着大数据技术的不断发展,更多能够探寻事物相关关系( correlation) 的方法也将引入国际关系文本研究中。由此说来,文本资料数据化后,国际关系研究者可应用更多社会科学方法与技巧加以学术价值。鉴于国际关系比一般的社会关系更加抽象且复杂多变,更多样、灵活的文本研究设计方案能帮助研究者厘清国际形势的发展脉络,进而从错综复杂的表象中正确剖析事件的内在联系。
第二,数据化可增强国际关系文本研究的科学性。广义上的科学应是严谨、系统的知识体系,应建立在前人的基础上,为后续的研究提供重复、检验、证伪的可能。然而,原始文本资料的字里行间常带 有深刻、隐晦的含义,这些含义需要研究者主观解读 和诠释,但这种分析过程常依赖直觉,透明度低,分析结果不够精确,以致文本研究具有较大的随意性 且流程无法重复,结论难以检验而在可靠性方面受到削弱或质疑。
无论文本被编码成量化数据还是质性数据,数据化都是将文本资料中最确凿无疑的核心内容提取为分析对象,使之变得相对客观和稳定。鉴于研究者须根据研究对象的特质选择方法和技巧设计分析流程,分析数据的手段须客观、标准,一些更缜密的 实证主义方法便可应用于文本研究中,进而得出更精确的分析结果。即便是纯粹的质性研究,研究者 也可应用相对客观的理论框架或模型分析数据化文本内容,这方便研究者公开分析流程细节,其他研究者能更轻易地重复开展其研究,国际关系文本研究的结论可因此变得更可靠。比如尼古拉·史密斯( Nicola Smith) 和科林·黑尔( Colin Hay)在开展英国与爱尔兰关于全球化、欧洲一体化的政治观念对比研究时,将两国政治家的讲话文本录入 Nvivo 软件中进行质性编码并将文本内容浓缩整合为六项主 题,而后根据主题设计调查问卷、询问两国议员对于 主题内容的认可程度,再用数字数据对比两国对于全球化与欧洲一体化的态度差异。在该项研究中,文本中数据化的政治态度变得具体,因此研究者可明确问卷问题和选项,提升分析流程透明度,得出相对精确的结论,为研究结论留下了被检验的可能性。
这种处理可让前人的成果为后续的研究打下基础,后人也更容易站在前人的肩膀上进一步攀登学术高峰,令国际关系学科内的知识能不断加以检验和完善,进而更连贯地发展,日益增加“科学”特质。再者,由于基于数据得到的分析结论相对精确,研究者由此发现的社会规律更加可靠,更具应用价值,进而为决策者提供更切实可行的建议,让扎根于文本的国际关系研究具有更真实的科学价值和实践意义,推动国际关系学科发展,使其向真正的科学研究靠拢,创造更多社会价值。
第三,数据化可突破小样本研究的局限。原始文本资料中的无关内容会占据大量储存空间,增加了管理与分享资料的难度,还降低研究者的阅读效率。因此,国际关系研究者基于文本使用质性方法( 如内容分析法、案例分析法等) 开展研究时常无法有效提升样本量,不能确保抽样方法充分合理,从而容易取巧地选择对论证有利的案例进行分析,令研究出现选择性偏差。国际关系行为体的话语经过数据化处理后,无关内容被剔除,文本资料的储存容量大大降低,比如“全球事件话语数据库”仅以 10MB 左右的储存空间便可记录世界范围内一天发生的超过 20 万项事件。由于信息储存效率大大提高,研究者可大量收集和整理文本资料,加上通讯技术高速发展,数据传播的速度日与俱增,当下的国际关系研究者可以轻易地分享到大量经数据化处理后的文本资料。比如,哈佛大学建立的数据分享平台( Har- vard Dataverse) 收录了超过 25000 种数据库供国际关系研究者使用。密歇根大学校际政治与社会研究联合会的网站提供了超过 25 万份社会与行为科学领域的数据文件,亦可作为国际关系研究的重要数据来源。
另外,数据化使用计算机程序定位或筛选话语内容,可为研究者大幅提升阅读资料的速度,在单位时间内、以同样的精力能认识和理解比过去更多的话语文本案例,进而提升研究的样本量。即便是全程依赖研究者自行记录、整理、阅读话语资料并编码数据的国际关系文本研究,样本量也能增至数百甚至上千,遑论量化研究者使用当今普通的家用电脑便可瞬间处理数十亿字节的文本数据。更大的样本量能使文本中的离群值或特殊案例变得不显著,在应用大数据技术后,国际关系文本研究更有可能实现全样本分析,避免数据抽样带来的弊端。概要地说,在确保数据质量的情况下,研究者使用数据化文本资料可克服小样本分析的局限,在研究操作中极大地降低选择性偏差的概率。基于此,国际关系研究者分析数据化的文本资料能让研究在统计意义上能得出更全面的结论,进而能更好地监测和预判国际事件的缘起和发展,为国家提供风险更低更准确的政策建议。
三、文本资料数据化在国际关系研究中的局限及其解决途径
受限于自然语言处理技术的水平,加上数据化会剔除文本意义和背景信息,文本资料的数据化在短期内对国际关系研究难免存在消极影响。第一,不利于思想意识领域的研究。国际行为体以话语进行交流,其行为不是单纯地逐利,它们往往都具有深刻的含义,能表现行为体的规范、价值观和身份认同,这些均是重要的国际关系研究对象。研究者须结合具体的历史文化背景深入理解这些行为规范、价值观和身份认同,用翔实的语言对其诠释,才能充分解释国际行为体之间的现象和行为。然而,数据是意义单一、表述精练的符号,无法描述深刻隐晦的含义和丰富的背景信息,研究者单凭数据无法深入诠释每个案例下国际行为体的规范、价值观和身份认同。再者,当下的人工智能技术亦未能完全准确地诠释话语中复杂、隐晦的含义。对于数据化的文本,研究者只能转而采纳实证主义的认识论和方法论进行分析。因为实证主义的认识论不要求研究者对话语和行为中的深刻含义进行诠释,而是让研究者在分析过程中保持价值中立,强调引入自然科学的方法分析社会科学问题。因此,数据化的趋势让量化方法成为学者学习和引进的重点。比较之下,基于主观诠释进行操作的质性研究方法在国内外均得不到重视,也让规范、价值观和身份认同时常成为国际关系科学研究的规避对象,令话语意义中这些无法量化的研究对象得不到足够的关注,而规范、价值观和身份认同往往是国际现象或行为的重要动因,缺乏这方面的研究不利于国际关系科学的整体发展。
第二,可能让研究产生内在逻辑矛盾。系统、严谨的研究应讲究存在论和认识论的逻辑连贯。换言之,研究者不可以客观标准计算、衡量没有物质形态的思维观念,亦不能通过话语感受和诠释并无深刻含义的客观事物,否则在研究前提上便已产生内在矛盾。文本记录的是国际关系行为体之间的状态、话语或行为。国家和国际组织本身并不纯粹由物质构成,国际现象或行为并不都是可以直接观察(比如美国通过世界银行推广“华盛顿共识”)的,而是常常无法加以充分衡量。数据化后的文本资料不再是研究者理解和感受的对象,而仅作为操作的研究对象,因此,数据化也是一个将主客体进行分离的过程,数据化后的文本资料成为研究者处理的“客体”,而研究者成为处理文本的主体,换言之,数据化是让基于文本开展的国际研究自然进入笛卡尔式主体-客体二元对立的逻辑前提。事实上,这种前提假设正被不假思索地全盘引入至国际关系研究中。随着文本信息数据化的发展,记录国际关系事件中的任何文本都在逐渐数据化,像“全球事件话语数据库”这样的大型数据库甚至将国际事件中人们的喜怒哀乐皆量化成为数据供研究者分析。此类研究对象并没有物质形态,无法进行计算。文本中的思维观念与情感本应加以诠释、解读,若研究者将其强行数据化并使其变得客观,容易形成存在论与认识论之间的脱节甚或矛盾,即研究得出了具体的结论,却无法解释结论具体到底是什么,因而降低了研究的科学价值。
第三,数据化的过程无法根除文本内容中的个人偏见。许多记录国际事件的数据库材料都来源于国际新闻、历史材料等,这些材料经过记者或者档案人员处理后在内容中难免带有个人偏见。比如在“战争相关指数”数据库中,关于战争的性质的分类型变量本身就是研究者的主观判断。若研究者不能通过意义诠释排除偏见,即便研究的数据量再大,模型的拟合程度再高,分析的结果再显著,检测得到的信度再高,也无法确保最终结论完全可靠。这种偏见时常不易被察觉,因为数据化文本资料容易获取,诸多国际关系研究者并不是通过亲身实践或调查获取文本资料。研究者在得到具体的数据后,受限于有限的时间和精力,通常很难与获得第一手资料的记者或档案人员建立直接联系,无法感受这些资料收集者在观察和记录国际关系现象或行为时产生的思想与情感,更无法排除数据中的个人偏见。即便机器已开始代替研究者成为分析主体,且当下的自然语言处理技术也取得重要进展,仍然无法真正还原人的思想情感,机器及其应用技术的便捷性反而助推国际关系研究者更多地坐到计算机前,远离真实的场景与感受,包含在数据中的偏见更难根除,而是“客观地”呈现在分析结果中,导致研究结论不可避免有所偏颇。
由于存在以上的局限性,许多基于这种数据库的研究并不能得到政府的认可。即便是美国政府和军方资助的“整合性冲突早期预警系统”(theIntegratedConflictEarlyWarningSystem)也不能做到准确分析国际事件形势变化,效果未如理想。因此,国际关系研究者应反思如何处理和应用文本资料,而不是随波逐流,盲目地一味将文本资料数据化,更要从多方面下功夫解决数据化的局限问题。
第一,重视发展后实证主义方法论。研究者将话语文本数据化的目的是创造智慧,但数据化并不是创造智慧的唯一途径。在国际规范、价值观和身份认同等思维观念领域,后实证主义的分析路径能为研究者提供巨大支持。诠释学和现象学是此类分析阵营中的典型代表,总体而言,诠释学是一门对文本的意义进行理解和解释的技艺,遵循这种分析路径的研究者不但要理解文本的语言意义,也要结合具体的历史环境理解研究对象的主观世界。而现象学则是一种激进的、反传统的哲学思潮,强调研究者要借助自身的意识和体验全面地感受现象并描述现象,进而去理解世间真相。无论是采用现象学的先验、体验、或是解释学的路径进行研究,后实证主义研究始终与数据化保持距离,重视保留完整的背景信息和话语中深刻、隐晦的内涵。这种范式亦可包容研究资料中的偏见,鼓励研究者带着个人偏见去理解各种现象和行为,借助真实的社会场景解释各种现象和行为。研究者循此路径分析将耗费更多时间在研究田野中而不是计算机前,重视采用访谈甚至以直接参与活动的方式与研究对象进行交流,观察和感受研究对象的行为模式和思想观念,用灵动的语言记录最为真实的场景进行论证。事实上,欧洲学界已意识到这点,荷兰莱顿大学“和平情报实验室”项目明确指出,国际关系大数据分析不能脱离基于具体社会环境进行主观诠释。欧盟的“欧洲晴雨表”系列数据自1987年起便已公开未经数据化处理的访谈资料,方便研究者使用原始文本资料诠释话语中隐含的意义。研究者通过这种方式创造的知识和智慧可避免数据语言意义单一带来的局限,能更好地探索蕴藏在国际关系文本中的思想观念。基于此,学者应深入地开发诠释学、现象学此类方法论在国际关系研究中的应用途径,让规范、价值观、身份认同等思维要素不再是国际关系科学研究的规避对象,促进国际关系学科的全面发展。
第二,强化串联研究的存在论和认识论意识。研究背后的哲学逻辑是研究的前提和根基,而数据化本身只是处理研究资料的一种方法,属于研究设计的末枝。文本资料数据化对于国际关系研究的科学贡献须建立在存在论与认识论连贯一致的基础上,否则再精妙、高效的数据处理与分析技巧只会让研究显得金玉其外、败絮其中。为了避免研究出现存在论与认识论不连贯一致的情况,研究者在搜集资料时应清楚了解研究对象是什么以及最不可划分的层次会是什么。具体而言,若研究对象本身并不具有深层次的意义或是理性逐利行为(比如纯粹的贸易往来),研究者大可遵循实证主义的认识论,构建严谨缜密的数学模型,对数据进行分析,得到更精确的分析结果。倘若研究对象是没有物质形态且无法加以直接观察的心理现象或意识观念(比如民族认同感),研究者要小心处理数据化的文本资料,谨慎使用实证主义的分析路径开展研究,此时若研究者能重视感受和理解研究对象的心理状态,则更容易实现存在论和认识论层面的连贯一致,进而提高研究的科学价值。也就是说,只有在研究的内在逻辑连贯的基础上,研究者才可选择适当的方法、设计合理的流程进行分析。
第三,通过人际学术交流检验结论。如上文所述,数据化会筛除文本中的深刻内涵和背景信息,可导致结论出现偏颇,研究者用数学公式进行结论检验并不能完全反映实际状况。因此,在得到数据分析的结果后,研究者应深入思考数据背后的历史文化背景是什么、研究对象的话语和行为有着怎样的意义、分析过程中会省略掉哪些意义、在完成数据分析后应诠释哪些意义等。带着以上的问题,研究者应尝试与研究对象或同行专家直接交流,将研究结果呈现给对方,通过面对面的话语交谈更深入地理解研究对象的意识、情感,加强对国际现象或行为之时代背景的认识,征求对于研究结论的意见和建议,使研究尽可能完整地还原文本资料中被抽离的背景信息和深刻内涵,弥补数据分析的缺陷。研究者在确认结论充分可靠前,应将其研究交与同行专家或研究对象审阅并认可。比如安东尼·菲尔(AnthonyFee)和苏珊·麦克格拉芙-尚普(SusanMcGrath-Champ)探究国际非政府组织如何保护海外员工的安全后,不但将编码分析的结果发受访者以寻求反馈,还约见两位国际安全领域的专家咨询诠释结果的合理性。如此通过与研究对象或同行保持密切的交流,研究者能够最大程度地限制数据化研究的不足和弊端,确保分析结论能够尽量贴近实际,让国际关系研究真正得益于文本资料的数据化。
选自《现代国际关系》2018年第5期,文章有删减,详见原文
筛选:晞哲 编辑:小宜