• 0
  • 0
分享
  • AI测试干货!实例讲解AI自动生成测试用例——软件测试圈
  • 落叶凌飒 2024-04-25 11:25:08 字数 9569 阅读 319 收藏 0

  1.引言

  在软件开发过程中,测试用例的生成是至关重要的一步。测试用例是用于验证软件功能、性能和安全性的具体测试方法,是确保软件质量的关键手段。

  随着人工智能(AI)技术的发展,基于 AI 的测试用例生成技术逐渐成为未来趋势。

  1.1. 测试用例的重要性

1-2.png

  1.1.1. 测试工作的基础

  测试用例是测试工作的基础,是测试工程师执行测试的重要依据。

  测试工程师需要根据测试用例的设计要求,执行测试用例,记录测试结果,并对测试结果进行分析和总结,为后续的修复工作和改进提供依据。

  1.1.2. 设计应全面、合理、可行

  测试用例的设计应全面、合理、可行,尽可能覆盖软件的各个功能、接口、性能和安全等方面。

  同时,测试用例的设计应该遵循一定的规范和标准,以确保测试工作的准确性和一致性。

  此外,测试用例的设计还应该考虑到实际情况和用户需求,以确保测试结果的可靠性和有效性。

  1.1.3. 软件质量的关键保证

  通过执行测试用例,可以验证软件的功能、性能和安全性等方面的表现,及时发现软件中的缺陷和错误并进行修复,从而确保软件的质量和可靠性。

  1.2. 传统测试用例生成方法的局限性

1-3.png

  1.2.1. 耗时耗力

  传统测试用例生成方法通常需要人工编写和整理测试用例,这需要耗费大量的人力和时间。

  在开发周期紧张的情况下,手工编写测试用例可能会影响测试进度和质量。

  1.2.2. 易出错, 缺乏精度

  人工编写测试用例容易出错,且缺乏准确性。测试工程师可能因为疏忽、理解偏差或经验不足等原因导致测试用例的设计不合理或遗漏重要测试点,从而影响测试效果。

  1.2.3. 缺乏灵活性

  传统的手动测试用例生成方法通常需要事先定义测试场景和条件,无法灵活应对快速变化的需求。当需求变更或软件功能发生变化时,需要重新设计和编写测试用例,这会影响测试效率和质量。

  1.2.4. 历史数据 利用率低

  传统的手动测试用例生成方法通常仅基于当前测试数据和测试结果进行设计,无法充分利用历史数据和知识经验。

  通过分析历史数据和知识经验,可以更好地了解软件的质量状况和趋势,从而制定更合理的测试策略和计划。

  1.2.5. 无法应对复杂应用

  复杂系统和应用的功能和接口众多,人工测试用例生成方法难以全面覆盖各种场景和需求,同时复杂系统和应用还涉及到大量的数据和算法,人工测试用例生成方法难以准确模拟用户人工测试用例生成方法可能受到测试工程师的经验和知识水平的限制。

  如果测试工程师经验不足或缺乏相关知识,可能无法发现软件中的潜在问题或遗漏重要测试点,导致测试效果不佳。

  1.3. 基于 AI 的测试用例生成方法的可能性

1-4.png

  1.3.1. 提高测试效率和质量

  AI 测试用例生成方法能够自动化地分析软件数据和历史测试结果,根据实际情况和用户需求生成符合要求的测试用例,从而减少了人工编写和整理测试用例的时间和人力成本,提高了测试效率和质量。

  1.3.2. 降低测试成本和风险

  通过自动化的测试用例生成方法,可以减少对测试工程师的经验和知识水平的依赖,降低了测试成本和风险。

  同时,这种方法也可以更好地应对需求变更和软件功能变化的情况,减少了重新设计和编写测试用例的需求。

  1.3.3. 应对复杂应用挑战

  AI 测试用例生成方法可以通过自动识别不同的用户群体和场景,全面覆盖复杂系统和应用的场景和需求。

  复杂系统和应用通常涉及到不同的用户群体和场景,不同的用户群体和场景对软件的功能和性能有不同的需求和期望。

  通过自动识别不同的用户群体和场景,AI 测试用例生成方法可以生成针对不同用户群体的测试用例,从而更好地满足不同用户的需求,提高测试的覆盖率和准确性。

  1.3.4. 标准化和一致性

  AI 测试用例生成方法可以通过制定规范和标准,实现测试用例的标准化和一致性,从而提高了测试质量和可靠性。

  1.3.5. 知识积累和共享

  AI 测试用例生成方法可以自动分析历史数据和知识经验,实现测试知识的积累和共享,为后续的测试工作提供了更好的支持和参考。

  2.AI生成测试用例的应用

  在测试用例生成中,人工智能(AI)技术的应用已经取得了显著的进展。以下是一些关于 AI 在测试用例生成中的应用的主要方面:

  2.1. 利用大数据和机器学习 分析测试数据

  2.1.1. 数据收集与准备

  2.1.1.1. 数据来源:

1-5.png

  在进行测试数据分析前,首先需要深入了解不同测试阶段的数据,以获得全面的视角。以下是可能的数据来源:

  测试执行结果:收集测试用例的执行结果,包括通过的用例、失败的用例以及执行时间等信息。这可通过测试执行工具、持续集成系统等来获取。

  代码仓库的版本控制历史:分析代码仓库的变更历史,包括代码提交、分支合并等,以了解代码的演化过程。这有助于理解代码质量和稳定性。

  缺陷报告:获取缺陷管理系统中的数据,包括缺陷的严重性、解决状态、影响范围等信息。这有助于发现测试覆盖的盲点和关键功能区域。

  性能监测数据:收集应用程序的性能监测数据,包括响应时间、资源利用率等。这有助于识别性能瓶颈和优化测试用例。

  用户反馈:考虑收集用户的反馈信息,包括用户报告的问题、需求变更等。这可以帮助测试团队关注用户关心的方面。

  为了自动化数据收集,可以集成相关工具,例如:

  版本控制系统集成:使用Git或其他版本控制工具,结合相关API,实现对代码仓库的实时监测和数据收集。

  缺陷管理系统集成:将测试工具与缺陷管理系统(如 Jira、Bugzilla)连接,以自动捕捉测试执行和缺陷信息。

  性能监测工具集成:使用性能监测工具(如 New Relic、AppDynamics),将性能数据集成到测试数据分析流程中。

  2.1.1.2. 数据清洗:

1-6.png

  在数据收集后,数据清洗是确保分析准确性的关键步骤。

  处理异常值 :

  在处理异常值时,我们采用统计学方法来检测和处理异常值,以确保它们不会影响后续分析的结果。例如,我们可以使用离群值检测算法来识别和处理异常值。

  # 使用离群值检测算法处理异常值
  from sklearn.ensemble import IsolationForest
  # 初始化 Isolation Forest 模型
  iso_forest = IsolationForest(contamination=0.1)
  # 拟合模型并标记异常值
  outliers = iso_forest.fit_predict(data)
  # 标记异常值为 NaN,便于后续处理
  data['feature_column'][outliers == -1] = np.nan

  处理缺失值 :

  在处理缺失值时,我们通过填充、删除或插值等方法处理缺失值,以避免在后续分析中引入偏差。选择适当的方法取决于数据的特性和缺失值的原因。

  # 使用平均值填充缺失值
  data['feature_column'].fillna(data['feature_column'].mean
  (), inplace=True)

  数据可视化 :

  最后,我们使用数据可视化工具(如 matplotlib、Seaborn)生成直观的图表,检查数据的分布和异常情况。这有助于发现潜在的数据问题,并为进一步分析提供参考。

  # 使用 matplotlib 进行数据可视化
  import matplotlib.pyplot as plt
  # 绘制特征分布图
  plt.hist(data['feature_column'], bins=20, color='blue',
  alpha=0.7)
  plt.title('Feature Distribution')
  plt.xlabel('Feature Values')
  plt.ylabel('Frequency')
  plt.show()

  通过以上步骤,数据收集与准备阶段为后续机器学习和数据挖掘提供了可靠的基础,确保分析的准确性和可信度。

  2.1.2. 特征工程

  当进行软件测试领域的特征工程时,特征选择和转换是关键的步骤,它们帮助我们提取、优化输入数据,以更好地训练机器学习模型。

  2.1.2.1. 特征选择:

  领域知识的运用:

  代码复杂度:通过使用工具(比如 Pylint 或 SonarQube)分析代码,我们可以了解每个代码文件的复杂度,包括嵌套层数、类和方法的复杂性,以及代码中的注释行数。这些信息有助于识别哪些代码更难测试。

  代码变更的频率:通过版本控制系统(如 Git)追踪每个文件的提交历史,我们可以计算文件的变更次数、规模和演进情况。这有助于理解哪些代码是变更频繁的,哪些是相对稳定的。

  测试执行时间:从测试工具中提取每个测试用例的执行时间,可以帮助我们分析测试用例执行时间的分布和趋势。这有助于找出执行时间较长的用例,从而进行性能优化。

  统计方法:

  相关性分析:使用统计学方法(如 Pearson 相关系数或Spearman 秩相关系数),深入研究每个特征与测试用例生成目标之间的关系。这可以帮助我们了解哪些特征与测试用例生成的目标有关系,哪些不太相关。

  方差分析:使用 ANOVA 检验不同特征在不同类别下的均值是否存在显著差异。这有助于确定哪些特征在测试用例生成中更为重要。

  特征重要性评估:

  决策树的特征重要性:利用决策树模型,我们可以详细研究每个特征在决策树中的作用。通过这种方式,我们可以了解每个特征对于模型性能的贡献程度。

  from sklearn.tree import DecisionTreeRegressor
  import matplotlib.pyplot as plt
  import numpy as np
  # 假设 X 是特征矩阵,y 是目标变量
  # X = np.array([[1], [2], [3], [4]])
  # y = np.array([2.5, 3.6, 3.4, 4.2])
  # 初始化决策树回归模型
  model = DecisionTreeRegressor()
  # 拟合模型
  model.fit(X, y)
  # 获取特征重要性
  feature_importance = model.feature_importances_
  # 特征重要性可视化
  plt.bar(range(len(feature_importance)), feature_importance,
  tick_label=['label1'])
  plt.xlabel('LABEL')
  plt.ylabel('IMPORTANT')
  plt.title(u'LabelAndImportant')
  plt.show()

  递归特征消除:

  递归特征消除算法:使用 RFE 等算法,通过反复训练模型并去除对模型影响较小的特征,逐步优化特征集。

  from sklearn.feature_selection import RFE
  from sklearn.ensemble import RandomForestRegressor
  import numpy as np
  # 初始化随机森林回归模型
  model = RandomForestRegressor()
  # 初始化 RFE
  rfe = RFE(model, n_features_to_select=1)
  # 拟合 RFE 模型
  # X = np.array([[1, 2], [2, 3], [3, 4], [4, 5]])
  # y = np.array([2.5, 3.6, 3.4, 4.2])
  fit = rfe.fit(X, y)
  # 特征排名
  ranking = fit.ranking_
  print("特征排名:", ranking)

  这样的特征选择过程确保了我们选择的特征集能够充分反映测试用例生成任务的关键因素,提高了模型的解释性和泛化能力。

  2.1.2.2. 特征转换:

  连续型特征:

  归一化:使用 MinMaxScaler 将连续型特征缩放到[0, 1]的范围内,确保不同尺度的特征对模型的训练具有相近的影响。

  from sklearn.preprocessing import MinMaxScaler
  # 初始化 MinMaxScaler
  scaler = MinMaxScaler()
  # 归一化
  X_normalized = scaler.fit_transform(X)

  标准化:使用 StandardScaler 将特征转换为均值为 0、标准差为 1 的标准正态分布,以消除特征之间的量纲差异。

  from sklearn.preprocessing import StandardScaler
  # 初始化 StandardScaler
  scaler = StandardScaler()
  14
  # 标准化
  X_standardized = scaler.fit_transform(X)

  非数值型特征:

  独热编码 (One-Hot Encoding) ):对离散的分类特征进行独热编码,将其转化为二进制形式,避免引入不必要的顺序关系。

  import pandas as pd
  # 利用 get_dummies 进行独热编码
  encoded_data = pd.get_dummies(data, columns=['执行环境'],
  prefix=['环境'])

  标签编码(Label Encoding ):将有序的非数值型特征映射为整数,保留其顺序关系。

  from sklearn.preprocessing import LabelEncoder
  # 初始化 LabelEncoder
  label_encoder = LabelEncoder()
  # 进行标签编码
  data['优先级编码'] = label_encoder.fit_transform(data['优先级
  '])

  通过这些详细的特征转换方法,确保测试数据在进入机器学习模型训练之前,已经经过了细致的处理,进而提高了模型对特征的理解和利用的能力,增强了模型的预测性能。

  2.1.3. 机器学习模型训练

  2.1.3.1. 选择模型

  机器学习模型是一种智能工具,能够从数据中学到模式和规律。在测试用例生成中,我们需要选择适当的模型,以便理解和生成测试用例。

  监督学习:这种模型适用于有带有标签的测试数据。通过学习输入和输出之间的关系,它能够为新的测试用例提供合理的输出。

  无监督学习:适用于没有标签或只有部分数据有标签的情况。无监督学习可以帮助模型自行发现数据中的模式,有助于测试用例生成。

  半监督学习:结合了监督和无监督学习,适用于测试数据同时包含有标签和无标签的情况。

  2.1.3.2. 数据划分

  将测试数据划分为训练集和测试集是为了确保模型在未知数据上也能表现良好。

  训练集:包含已知输出的测试用例,用于训练模型。模型通过学习这些测试用例的模式和规律来提高性能。

  测试集:包含未知输出的测试用例,用于验证模型的泛化能力。通过测试集来评估模型在真实场景中的表现。

  有时,为了更准确地评估模型的性能,我们使用交叉验证,将数据集划分成多个子集,轮流使用其中一个子集作为验证集,其余子集作为训练集。

  2.1.3.3. 模型训练

  模型训练是整个过程的关键,这一阶段模型通过学习训练数据的模式和规律,以便更好地生成新的测试用例。

  输入数据:将训练集中的测试用例输入模型,包含测试用例的各种特征和属性。

  学习模式:模型通过调整自身的参数,尝试不同的参数组合,以最小化预测值与实际值之间的差距。这是一个迭代的过程,模型逐渐提高自己的适应性。

  模型优化:模型通过学习不断优化自身,使其能够更好地预测新的、未见过的测试用例。在整个训练过程中,我们的目标是让模型能够深入理解测试数据的模式,以便在未来遇到新的测试用例时能够做出准确的预测。

  总体而言,机器学习模型训练是利用已有的测试数据,通过学习从中总结规律,然后应用这些规律来生成新的测试用例。

  这一过程类似于培训一位学生,我们通过提供一些练习题(训练集)让学生学会解题的方法,最后验证他在新问题上的表现(测试集)。

  在测试用例生成中,我们的“学生”是机器学习模型,我们期望通过学习,它能够帮助我们更智能、更高效地生成测试用例。

  2.1.4. 模型评估与优化

  当我们进入机器学习模型的评估与优化阶段时,这是一个深入调查和微调模型的过程,以确保其在真实情境中能够表现出色。

  2.1.4.1. 评估指标:

  在机器学习中,我们需要一些评估指标来量化模型的性能。这些指标就像是我们在学校中使用的考试分数,可以告诉我们模型的表现有多好。

  以下是一些重要的评估指标:

  准确度 (Accuracy ):这是一个简单而直观的度量,表示模型正确预测的样本数占总样本数的比例。例如,如果我们有 100 个样本,而模型成功预测了 80 个,准确度就是 80%。

  精确度 (Precision ):精确度关注于模型在预测为正类别时的准确性,即在所有模型预测为正类别的样本中,有多少确实是正类别。

  召回率(Recall ):召回率关注于模型在实际为正类别的样本中成功预测为正类别的比例,即模型对正类别的覆盖率。例如,如果实际有10个正类别样本,而模型成功找出了其中的8个,召回率就是80%。

  F1 分数:F1 分数综合考虑了精确度和召回率,适用于处理不平衡的数据集。它是精确度和召回率的调和平均。

  这些指标帮助我们深入了解模型在测试数据上的表现。通常情况下,我们希望这些指标的值越高越好。

  2.1.4.2. 模型调优:

  一旦我们评估了模型的性能,接下来的关键步骤是对模型进行调优,以提高其泛化能力。

  这包括以下方面的详细工作:

  调整模型的超参数:模型的性能受到一些配置参数的影响,这些参数通常称为超参数。比如学习率、树的深度等。我们需要通过多次试验,调整这些参数,找到最佳组合,使模型在未见过的数据上表现良好。

  进行特征选择:有时候,训练模型时引入的特征可能不都对性能贡献均等,甚至一些特征可能对模型的学习起到负面作用。通过特征选择,我们分析哪些特征是最重要的,去除那些对模型没有帮助或者干扰模型学习的特征。

  增加新特征:如果我们了解领域背景,可能会发现一些关键的特征没有被考虑到。通过引入新特征,我们可以更好地捕捉数据的复杂性,提高模型的性能。

  整个调优过程是一个反复试验的过程。我们通过不断地调整模型的参数,选择最重要的特征,以及尝试新的特征,来提高模型的性能。

  我们通常使用交叉验证技术来确保模型对各种数据情况都能表现良好。

  2.2. 挖掘潜在生成规则和模式

  2.2.1. 数据挖掘算法

  关联规则挖掘:使用关联规则挖掘算法,例如 Apriori 或FP-Growth,从测试数据中找到测试用例之间的关联关系,发现潜在规则。

  聚类分析:利用聚类算法,例如 K-Means,将测试数据划分为不同的簇,揭示测试用例生成的模式。

  2.2.2. 模式识别

  模式识别算法:运用模式识别技术,可以使用传统的统计方法,也可以尝试深度学习中的卷积神经网络(CNN)或循环神经网络(RNN)等,以发现测试数据中的模式。

  特征提取:通过模式识别算法,从测试数据中提取有意义的特征,这些特征可用于进一步的规则生成。

  2.2.3. 规则生成

  生成规则:基于挖掘到的关联关系和模式,生成适用于测试用例生成的规则。这可以是基于规则的方法,也可以是使用机器学习模型的输出。

  优化规则:根据实际测试需求和反馈,对生成的规则进行优化,确保其适用于具体项目和场景,可能需要人工干预。

  通过以上详细步骤,机器学习和数据挖掘技术在测试用例生成中的应用能够更加全面地考虑数据的复杂性,提高测试用例生成的智能性和效率。

  这一流程需要密切结合具体项目和测试要求进行调整和优化。

  3.案例解析

  此处我们通过 前端登陆页面代码生成测试用例来举例解析。

  3.1. 数据准备

  收集并准备登录页面的前端代码,包括 HTML、CSS 和 JavaScript文件。确保代码库可运行,模拟用户登录的流程。

  3.2. 代码解析

  使用代码解析工具或库(例如 AST 解析器)来分析前端代码的结构,特别关注登录页面中的表单元素、按钮和可能的验证逻辑。

  3.3. 识别关键元素

  识别登录页面中的关键元素,如用户名输入框、密码输入框、登录按钮,以及可能的错误提示或登录成功提示。

  3.4. 自然语言处理

  将关键元素和交互事件转化为自然语言描述。使用 NLP 模型(例如GPT)生成测试用例的人类可读描述。

1-7.png

  3.5. 测试用例生成

  根据自然语言描述和代码结构生成测试用例。这可能包括以下步骤:

1-8.png

  4.未来趋势和展望

  未来,AI 在测试领域的发展前景十分广阔,涵盖了从测试用例生成到测试执行、结果分析以及自动修复缺陷等多个方面。以下是对这些方向的展望:

  1)AI 生成测试用例:

  更智能的测试用例生成:未来的 AI 系统将更深入地理解应用程序的复杂性,生成更具深度和广度的测试用例。通过结合更多领域知识和学习经验,AI 生成的测试用例将更符合实际使用场景。

  跨领域融合:AI 将与其他新兴技术融合,例如自然语言处理(NLP)和计算机视觉,以更全面、跨维度地理解和生成测试用例。这将进一步提高测试用例的覆盖范围和质量。

  2)AI 执行测试用例:

  自动测试执行:AI 系统将更主动地执行测试用例,实现全自动化的测试执行过程。这包括智能测试环境的管理、测试用例的动态选择和执行,以及对测试过程中的异常处理。

  自适应测试环境:AI 将能够自动适应不同的测试环境和应用场景。无论是 Web 应用、移动应用还是嵌入式系统,AI 系统都将调整测试策略,以确保覆盖不同的使用情境。

  3)AI 分析测试结果:

  智能缺陷分析:AI 在测试结果分析方面将发挥更大的作用。通过深度学习技术,AI可以更准确地识别和分类缺陷,提供开发团队更有针对性的信息,帮助快速修复问题。

  实时性能监控:AI 系统将实时监控应用程序的性能,并能够迅速识别性能瓶颈和潜在问题。这有助于在早期发现并解决性能方面的挑战,提高系统的稳定性。

  4)AI 修改 Bug:

  自动化缺陷修复:AI 将越来越多地介入缺陷修复的过程。通过学习代码库、历史修复记录以及最佳实践,AI 系统将提供自动修复建议,甚至可以直接应用修复。

  智能决策支持:AI 系统将成为团队中的智能决策支持工具。在缺陷修复过程中,AI将提供不同修复方案的可能影响和效果预测,帮助团队更明智地进行决策。

  总体而言,未来 AI 在测试领域的应用将更加全面和智能,不仅提高了测试效率,也改善了软件质量。

  这将使测试工程师更专注于创造性和战略性的工作,推动整个软件开发生态系统的进一步创新。


作者:大腿毛先生    

来源:http://www.51testing.com/html/78/n-7800578.html

  • 【留下美好印记】
    赞赏支持
登录 后发表评论
+ 关注

热门文章

    最新讲堂

      • 推荐阅读
      • 换一换
          • 摘要:连续测试意味着您的所有测试一直在执行,从而提供有关应用程序质量和运行状况的连续反馈。为了实现连续测试,您必须首先采用正确的测试自动化策略。了解如何尽可能有效地引入所有不同类型的测试自动化实践,可以使您开始进行连续测试。作为进入市场战略的一部分,企业越来越关注客户体验,而客户体验的关键部分是他们以快速、无缝的方式遍历软件的能力。消费者比以往任何时候都更精通技术,对缺陷的容忍度也较低,因此遭受不良行为影响的应用程序可能会对您的品牌产生极大的负面影响。为了降低这些风险,组织将质量计划加倍,软件开发行业也将持续测试作为主流活动。什么是连续测试?持续测试是软件测试的一项原则,在该原则中,您的所有测...
            0 1 1115
            分享
          •   1.什么是测试用例?  测试用列(Test Case)是为了实施测试而向被测试的系统提供的一组集合,这组集合包含:测试环境、操作步骤、测试数据、预期结果等要素。  2.测试用例的要素  测试用例的标题、测试思路、预设条件、步骤、预期输出  一个好的测试用例是一个不熟悉业务的人也能依据用例来很快的进行测试。  评价测试用例的标准:  ·用例表达清楚,无二义性  ·用例可操作性强  ·永猎的输入与输出明确,一条用例只有一个预期结果  ·用例的可维护性好  ·用例对需求的覆盖率高  ·暴露程序bug的能力强  3.测试用例的好处  ·它是测试执行者的依据  ·它使得工作可重复,自动化测试的基础 ...
            12 12 1833
            分享
          •   测试人初到一个公司,往往公司的测试团队和规模已经完善,我们需要做的就是跟着公司的节奏走。因为相应的制度和流程已经完善,不需要额外操心太多与测试执行层面无关东西。  但是当流程和制度没有的情况下,我们应该怎么办呢?  本篇文章适用于初到一个公司、公司新引进测试流程,却不知道如何从0开始的同仁。以下是我近期的总结,方案有可能不是最完美的,但可以参考,有一定的借鉴作用。  整篇文章逻辑结构:  首先介绍什么是落地;  其次更为重要的思想;  最后经过这一年总结还有哪些不足之处,进而指出我打算接下来执行的方案。  何为落地  不知道大家接触过“落地页”这个词没有,我是在需求介绍文档里第一次见到这个...
            0 0 506
            分享
          •       1. TCP和UDP的区别TCP提供面向连接的、可靠的数据流传输,而UDP提供的是非面向连接的、不可靠的数据流传输;TCP传输单位称为TCP报文段,UDP传输单位称为用户数据报;TCP注重数据安全性,UDP数据传输快,因为不需要连接等待,少了许多操作,但是其安全性却一般。      2. TCP和UDP分别对应的常见应用层协议?      2.1 TCP对应的应用层协议      FTP:定义了文件传输协议,使用21端口。常说某某计算...
            8 10 2359
            分享
          •   据华尔街日报援引知情人士消息,埃隆?马斯克 (Elon Musk) 旗下的人工智能创业公司 xAI 正与投资者洽谈融资事宜。此次融资规模达到 30 亿美元,这将使 XAI 的估值达到 180 亿美元。  报道称,考虑参与 xAI 融资的投资方包括风投公司 Gigafund 和投资人 Steve Jurvetson。Gigafund 由曾联合创办 PayPal 的 Stephen Oskoui 和 Luke Nosek 于 2017 年 7 月联合创立。Jurvetson 则是另一家风投公司 Future Ventures 的联合创始人。  值得注意的是,Gigafund 和 Jurvets...
            0 0 153
            分享
      • 51testing软件测试圈微信