Python在AI中的应用--使用决策树进行文本分类

Python在AI中的应用--使用决策树进行文本分类

  • 文本分类
  • 决策树
    • 什么是决策树
  • scikit
    • 算法
  • 使用scikit的决策树进行文章分类
    • 一个文本分类的Python代码
    • 使用的scikit APIs说明
      • 装入数据集
      • 决策树算法类
        • 类构造器:
      • 构造决策树分类器
      • 产生输出
      • 评估输出结果
        • 分类准确度
        • 分类文字评估报告

文本分类

文本分类是将文本文档分类为预定义类别的过程。
文本分类涉及,根据文本文档的内容,为其分配预定义的类别或标签。

决策树

决策树是分层树结构,它根据输入特征的值,递归地划分特征空间。由于其简单性、可解释性和处理非线性关系的能力,它们特别适合分类任务。

决策树为文本分类提供了清晰易懂的模型,使其成为可解释性与预测能力同样重要的任务的绝佳选择。然而,它们固有的简单性,可能会在处理非常复杂,或微妙的文本数据时,带来挑战。

什么是决策树

决策树是一种非参数监督学习算法,可用于分类和回归任务。它具有分层的树结构,由根节点、分支、内部节点和叶节点组成。

看下列的一个例子,假设您正在尝试评估是否一个动物是家猫,您可以使用以下决策规则来做出选择:
在这里插入图片描述
这种类型的流程图结构还创建了一种易于理解的决策表示形式,使组织中的不同团队能够更好地理解做出决策的原因。

决策树学习采用分而治之的策略,通过进行贪婪搜索,识别树内的最佳分裂点。然后以自上而下、递归的方式,重复此拆分过程,直到所有,或大多数记录都被分类到特定的类标签下。是否所有数据点都被分类为同质集,很大程度上取决于决策树的复杂性。较小的树更容易获得纯叶节点,即单个类中的数据点。

随着树的大小增长,保持这种纯度变得越来越困难,并且通常会导致给定子树内的数据太少。发生这种情况时,称为数据碎片,通常会导致过度拟合。因此,决策树对小树有偏好,这与奥卡姆剃刀中的简约原则是一致的;也就是说,“如无必要,不应增加实体”。换句话说,决策树仅在必要时,才应增加复杂性,因为最简单的解释通常是最好的。为了降低复杂度,并防止过度拟合,通常会采用剪枝的方法;这是一个过程,它删除了在重要性较低的特征上分裂的分支。然后可以通过交叉验证过程来评估模型的拟合度。

决策树保持准确性的另一种方法是通过随机森林算法形成集成;该分类器可以预测更准确的结果,特别是当各个树彼此不相关时。

scikit

Scikit-learn 是一个流行且强大的机器学习库,拥有大量算法,以及用于 ML 可视化、预处理、模型拟合、选择和评估的工具。

  • 算法:包括各种分类、回归和聚类算法,例如支持向量机、随机森林、梯度提升、k-means 和 DBSCAN
  • 工具:提供模型拟合、选择、评估和数据预处理的工具
  • 集成:与其他 Python 库集成良好,例如 NumPy、SciPy、Pandas 和 Matplotlib
  • 易于使用:拥有一致的 API、广泛的文档和许多在线教程
  • 平台:适用于 Linux、MacOS 和 Windows

算法

Scikit-learn 基于 NumPy、SciPy 和 matplotlib 构建,具有许多用于分类、回归和聚类的有效算法。

其中包括支持

  • 支持向量机(Support Vector Machines),支持向量机 (SVM) 算法是一种监督机器学习算法,通过查找,将数据点分为不同类的超平面,来对数据进行分类。目标是,最大化超平面和每个类最近的数据点之间的距离。

  • 雨林(rain forests), 是一种当数据集太大,而无法容纳在内存中时,通过分割分割数据集,构建决策树的说法,不需要整个数据集,来做出分裂决策,只需要一些汇总信息,比如·一个属性的AVC集,如果有更多内存,可以使为属性 AVC组。

  • 梯度提升(Gradient boosting),梯度提升是一种机器学习算法,它结合多个弱模型,来创建更准确、更高效的预测模型。这是一种强大的技术,用于解决复杂的回归和分类问题。

  • k 均值(K-means),K-means 是一种无监督学习算法。它试图在数据中找到离散的分组,在同一组中的成员彼此尽可能相似,并且与其他组的成员尽可能不同。

  • DBSCAN(Density-based spatial clustering of applications with noise),DBSCAN是一种基于密度的聚类算法,它根据数据点彼此的接近程度,将数据点分组在一起。它的工作原理是,识别核心点,并在它们周围扩展集群,核心点就是指定半径内,具有最少数量相邻点的点。

AVC(Attribute-Value Class)集是RainForest提供了一个重要的概念。 AVC特定n个节点的属性集合,由具有不同属性值a和的数据的数量来表征不同的班级。第n个节点的AVC组是由具有第n个节点的所有AVC集合组成的组合集合。和AVC 集的定义,RainForest 算法设法区分决策树中的可扩展性问题来自决策树的质量问题。

Scikit-learn 因其一致且高效设计的 API、大多数算法的广泛文档,以及大量在线教程而拥有相对易于开发的优势。

当前版本可用于流行的平台,包括 Linux、MacOS 和 Windows。

使用scikit的决策树进行文章分类

在 Python 中使用决策树进行文本分类,我们将使用流行的 20 Newsgroups 数据集。该数据集包含大约 20,000 个新闻组文档,分为 20 个不同的新闻组。我们将使用 scikit-learn 获取数据集,预处理文本,使用 TF-IDF 向量化将其转换为特征向量,然后应用决策树分类器进行分类。

一个文本分类的Python代码

from sklearn.datasets import fetch_20newsgroups
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import classification_report, accuracy_score
import matplotlib.pyplot as plt
import numpy as np

class TEXT_CATALOG():
    DATA_HOME='C:\devs\python_devs\server_client\multi_threads\scikit_dataset'
    def load_dataset(self):
        self.categories = ['sci.crypt', 'rec.autos', 'comp.graphics', 'sci.med', 'misc.forsale']
        data = self.newsgroups_train = fetch_20newsgroups(data_home=TEXT_CATALOG.DATA_HOME, subset='train', categories=self.categories, remove=('headers', 'footers', 'quotes'))
        
        self.newsgroups_test = fetch_20newsgroups(data_home=TEXT_CATALOG.DATA_HOME, subset='test', categories=self.categories, remove=('headers', 'footers', 'quotes'))

    def feature_extraction(self):
        vectorizer = TfidfVectorizer(stop_words='english')
        self.X_train = vectorizer.fit_transform(self.newsgroups_train.data)
        self.X_test = vectorizer.transform(self.newsgroups_test.data)
        self.y_train = self.newsgroups_train.target
        self.y_test = self.newsgroups_test.target
        
    def class_plot(self):
        class_distribution = np.bincount(self.y_train)
        plt.bar(range(len(class_distribution)), class_distribution)
        plt.xticks(range(len(class_distribution)), self.newsgroups_train.target_names, rotation=45)
        plt.title('Distribution of Classes in Training Set')
        plt.xlabel('Class')
        plt.ylabel('Number of Documents')
        plt.show()

    def decision_tree(self):
        self.clf = DecisionTreeClassifier(random_state=42)
        self.clf.fit(self.X_train, self.y_train)

    def apply_metrics(self):
        y_pred = self.clf.predict(self.X_test)
        # Evaluate the model
        print("Accuracy:", accuracy_score(self.y_test, y_pred))
        print("\nClassification Report:\n", classification_report(self.y_test, y_pred, target_names=self.newsgroups_test.target_names))

    def run_catalog(self):
        self.load_dataset()
        self.feature_extraction()
        self.decision_tree();
        self.apply_metrics();
        self.class_plot()
    

if __name__ == "__main__":
    cat = TEXT_CATALOG()
    cat.run_catalog()

使用的scikit APIs说明

装入数据集

scikit-learn提供了20个新闻组文本数据集。该数据集包含关于20个主题的,约18000个新闻组帖子,分为两个子集:一个用于训练,一个用于测试。

为了简单并降低计算成本,我们选择 7 个主题的子集并仅使用训练集。

scikit-learn提供了下列的Python API装入数据集
词法: sklearn.datasets.fetch_20newsgroups(*, data_home=None, subset=‘train’, categories=None, shuffle=True, random_state=42, remove=(), download_if_missing=True, return_X_y=False)

参数说明

  • data_home,str 或类似路径,默认=无,指定数据集的下载和缓存文件夹。如果没有,所有 scikit-learn 数据都存储在“~/scikit_learn_data”子文件夹中。
  • subset,子集{‘训练’,‘测试’,‘全部’},默认=‘训练’,选择要加载的数据集:“train”表示训练集,“test”表示测试集,“all”表示两者,并且排序已打乱。
  • categories,类数组,dtype=str,默认=None如果无(默认),则加载所有类别。如果不是“无”,则要加载的类别名称列表(忽略其他类别)。
  • shufflebool,默认=True,是否对数据进行洗牌:对于假设样本独立且同分布 (i.i.d.) 的模型可能很重要,例如随机梯度下降。
  • random_state,int,RandomState实例或None,默认= 42 确定数据集改组的随机数生成。传递一个 int 以在多个函数调用中实现可重现的输出。请参阅术语表。
  • remove,删除元组,默认=() 可以包含(“页眉”、“页脚”、“引号”)的任何子集。每一种文本都会被检测到并从新闻组帖子中删除,以防止分类器过度拟合元数据。“headers”删除新闻组标题,“footers”删除帖子末尾看起来像签名的块,“quotes”删除似乎引用其他帖子的行。“标题”遵循精确的标准;其他过滤器并不总是正确的
  • download_if_missingbool,默认=True, 如果为 False,则在数据在本地不可用时引发 OSError,而不是尝试从源站点下载数据。
  • return_X_y,bool,默认=False。如果为 True,则返回 (data.data, data.target) 而不是 Bunch 对象。

返回值说明

类似字典的对象,具有以下属性。

  • datalist,形状数据列表 (n_samples,) 学习资料清单。
  • target:,形状为 (n_samples,) 的 ndarray目标标签。
  • filenames,形状列表(n_samples,)数据位置的路径。
  • DESCR, str 数据集的完整描述。
  • target_names:形状列表(n_classes,)目标类的名称。
  • (data, target),元组如果 return_X_y=True,两个 ndarray 的元组。第一个包含形状 (n_samples, n_classes) 的二维数组,每行代表一个样本,每列代表特征。第二个形状数组 (n_samples,) 包含目标样本。

决策树算法类

类构造器:

词法:class sklearn.tree.DecisionTreeClassifier(*, criterion=‘gini’, splitter=‘best’, max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, class_weight=None, ccp_alpha=0.0, monotonic_cst=None)

参数说明

  • criterion,可选择的值为,{“gini”,“entropy”,“log_loss”},默认值为“gini”。测量分割质量的函数。支持:
    “gini”, 基尼杂质
    “log_loss”,香农信息增益
    “entropy”,香农信息增益

  • splitter,可选择的值为,{“best”, “random”},默认值为“best”。用于在每个节点选择分裂的策略。支持的策略是
    “best”,选择最佳分割
    “random”,选择最佳随机分割

  • max_depth,该变量类型是int,默认值为None。表示树的最大深度。如果值为None,则扩展节点,直到所有叶子都是纯的,或直到所有叶子包含少于 min_samples_split 样本。

  • min_samples_split,该变量类型是int 或 float,默认值为2。分裂一个内部节点所需的最小样本数。
    如果是 int,则将 min_samples_split 视为最小数量。
    如果是浮点数,则 min_samples_split 是一个分数,而 ceil(min_samples_split * n_samples) 是每次分割的最小样本数。

  • min_samples_leaf,该变量类型是int 或 float,默认值为1。叶节点所需的最小样本数。任何深度的分割点,只有在左右分支中,至少留下min_samples_leaf训练样本时,才会考虑分割。
    如果是 int,则将 min_samples_leaf 视为最小数量。
    如果是浮点数,则 min_samples_leaf 是一个分数,ceil(min_samples_leaf * n_samples) 是每个节点的最小样本数。

  • min_weight_fraction_leaf,该变量类型是float,默认值为0.0。叶节点处所需的(所有输入样本的)权重总和的最小加权分数。当未提供sample_weight时,样本具有相同的权重。

  • max_features,该变量类型是int、float 或 {“sqrt”、“log2”},默认值为None。寻找最佳分割时,要考虑的特征数量:
    如果是int,则考虑每次分割的max_features个特征。
    如果是浮点型,则 max_features 是一个分数,每次分割考虑 max(1, int(max_features * n_features_in_)) 个特征。
    如果“sqrt”,则 max_features=sqrt(n_features)。
    如果“log2”,则 max_features=log2(n_features)。
    如果None,则 max_features=n_features。

  • random_state,该变量类型是int,RandomState实例或None,默认值为None。控制估计器的随机性。即使分割器设置为“best”,在每次拆分时,总是随机排列这些特征。当 max_features < n_features 时,在找到最佳分割之前,算法将在每次分割时,随机选择 max_features个特征。但是,即使 max_features=n_features,找到的最佳分割,也可能在不同的运行中,有所不同。为了在拟合过程中,获得确定性行为,random_state 必须固定为一个整数。

  • max_leaf_nodes,该变量类型是int,默认值为None。以最佳优先的方式,产生具有 max_leaf_nodes 的树。最佳节点定义为,相对杂质更少的节点。如果值为None,则叶节点数量不受限。

  • min_impurity_decrease,该变量类型是float,默认值为0.0。如果分裂导致杂质减少大于或等于该值,则节点将被分裂。加权杂质减少方程如下:

    N_t / N * (impurity - N_t_R / N_t * right_impurity - N_t_L / N_t * left_impurity)

    其中N是样本总数,N_t是当前节点的样本数,N_t_L是左子节点中的样本数,N_t_R是右子节点中的样本数。
    如果传递了sample_weight,则N、N_t、N_t_R和N_t_L均指加权和

  • class_weightdict,dict, list of dict or “balanced”,默认值为None。以{class_label:weight}形式,与类关联的权重。如果值是None,则所有类别的权重都应该为1。对于多输出问题,可以按照与 y 的列相同的顺序,提供字典列表。
    对于多输出,应为其自己的字典中,每列的每个类定义权重。例如,对于四类多标签分类,权重应为 [{0: 1, 1: 1}, {0: 1, 1: 5}, {0: 1, 1: 1}, {0: 1, 1: 1}],而不是 [{1:1}、{2:5}、{3:1}、{4:1}]。
    “balanced”模式,使用 y 的值自动调整权重,它们与输入数据中的类别频率成反比,即 n_samples / (n_classes * np.bincount(y))
    对于多输出,y的每一列的权重都会相乘。
    如果指定了sample_weight,这些权重将与sample_weight相乘。

  • ccp_alpha,non-negative float,默认值为0.0。是一个复杂性参数,用于最小成本复杂性剪枝。选择具有最大成本复杂度小于ccp_alpha的子树。默认情况下,不执行剪枝。

  • monotonic_cst,array-like of int of shape (n_features),默认值为None。指示对每个特征强制执行的单调性约束。
    1:单调增加
    0:无限制
    -1:单调递减
    如果 monotonic_cst 为 None,则没有任何约束。

    不支持单调性约束:
    多类分类(即当 n_classes > 2 时),
    多输出分类(即当 n_outputs_ > 1 时),
    对缺失值的数据进行分类训练。

构造决策树分类器

fit(X, y, sample_weight=None, check_input=True),从训练数据集 (X, y) ,构建决策树分类器。

参数说明

  • X,{array-like, sparse matrix} of shape (n_samples, n_features)。X是训练输入样本。在内部,它将转换为 dtype=np.float32 并且如果将稀疏矩阵提供给稀疏 csc_matrix。

  • y,array-like of shape (n_samples,) or (n_samples, n_outputs)。y是目标值或类标签,值为整数,或字符串。

  • sample_weight,形状类似数组 (n_samples,),默认值为None。是样本权重。如果值是None,则样本的权重相等。在每个节点中搜索分割时,如果分割产生的子节点的权重为零或负值,则不进行分割。如果拆分会导致,任何子节点中的任何单个类有负权重,则也不进行分割。

  • check_input,该变量类型是bool,默认值为True。允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。

产生输出

词法:predict(X, check_input=True)
predict对测试数据集X做出预测,返回类,或回归值。

对于分类模型,返回 X 中每个样本的预测类别。对于回归模型,返回基于 X 的预测值。

参数说明

  • X,{array-like, sparse matrix} of shape (n_samples, n_features)。X是测试的输入样本。在内部,它将转换为 dtype=np.float32。

  • check_input,该变量类型是bool,默认值为True。允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。

  • 返回值,array-like of shape (n_samples,) or (n_samples, n_outputs)。它是预测类别,或预测值。

评估输出结果

分类准确度

sklearn.metrics.accuracy_score(y_true, y_pred, *, normalize=True, sample_weight=None)

accuracy_score给出分类准确度分数。

在多标签分类中,此函数计算子集精度:为样本预测的标签集,必须与 y_true 中相应的标签集完全匹配。

参数说明

  • y_true,1d array-like, or label indicator array / sparse matrix。正确的标签。

  • y_pred,1d array-like, or label indicator array / sparse matrix。预测标签,由分类器返回。

  • normalize,该变量类型是bool,默认值为True。如果为 False,则返回正确分类的样本数。否则,返回正确分类样本的分数。

  • sample_weight,array-like of shape (n_samples,),默认值为None。样本权重。

  • 返回,返回值类型是float or int。
    如果normalize == True,则返回正确分类样本的分数(float),否则,返回正确分类样本的数量(int)。最佳性能为 1。

分类文字评估报告

词法:sklearn.metrics.classification_report(y_true, y_pred, *, labels=None, target_names=None, sample_weight=None, digits=2, output_dict=False, zero_division=‘warn’)

classification_report构建显示主要分类指标的文字报告。

参数说明

  • y_true,1d array-like, or label indicator array / sparse matrix。正确的目标值。

  • y_pred,1d array-like, or label indicator array / sparse matrix。分类器返回的估计目标。

  • labels,array-like of shape (n_labels,),默认值为None。报告中的可选标签索引列表。

  • target_names,array-like of shape (n_labels,), 默认值为None。与标签匹配的可选显示名称,相同顺序。

  • sample_weight,array-like of shape (n_samples,),默认值为None。样本权重。

  • digits,该变量类型是int,默认值为2。用于格式化输出浮点值的位数。当output_dict为True时,这将被忽略,并且返回的值,将不会被舍入。

  • Zero_division,{“warn”, 0.0, 1.0, np.nan},默认值为“warn”。当除零时,zero_division就是返回值。如果设置为“warn”,则其作用为 0,但也会产生警告。

  • output_dict,该变量类型是bool,默认值为False。如果为 True,则以 dict 形式,返回输出。

  • 返回,该返回类型是str 或 dict。每个类别的准确率、召回率、F1 分数的文本摘要。如果 output_dict 为 True,则返回字典。字典具有以下结构:

下面展示一些 内联代码片

{'label 1': {'precision':0.5,
             'recall':1.0,
             'f1-score':0.67,
             'support':1},
 'label 2': { ... },
  ...
}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/882459.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

达梦-华为鲲鹏ARM架构下性能测试最佳实践

一、测试综述 1.1 测试目的 本次测试的目的是验证达梦数据库&#xff0c;在鲲鹏服务器下&#xff0c;不同服务器参数基于sysbench性能压力测试的表现。本次参数是根据为华为鲲鹏arm服务器调优十板斧内建议值调整 成长地图-鲲鹏开发套件开发文档-鲲鹏社区 1.2 通用指标 指标…

跟着问题学12——GRU详解

1 GRU 1. 什么是GRU GRU&#xff08;Gate Recurrent Unit&#xff09;是循环神经网络&#xff08;Recurrent Neural Network, RNN&#xff09;的一种。和LSTM&#xff08;Long-Short Term Memory&#xff09;一样&#xff0c;也是为了解决长期记忆 和反向传播中的梯度等问题…

让AI激发创作力:OpenAI分享5位专业作家利用ChatGPT写作的案例技巧

大家好&#xff0c;我是木易&#xff0c;一个持续关注AI领域的互联网技术产品经理&#xff0c;国内Top2本科&#xff0c;美国Top10 CS研究生&#xff0c;MBA。我坚信AI是普通人变强的“外挂”&#xff0c;专注于分享AI全维度知识&#xff0c;包括但不限于AI科普&#xff0c;AI工…

【标准库的典型内容】std::declval

一、 d e c l v a l declval declval的基本概念和常规范例 s t d : : d e c l v a l std::declval std::declval 是 C 11 C11 C11标准中出现的一个函数模板。这个函数模板设计的比较奇怪&#xff08;没有实现&#xff0c;只有声明&#xff09;&#xff0c;因此无法被调用&…

AlmaLinux 安裝JDK8

在 AlmaLinux 上安装 JDK 8 可以通过包管理器 dnf 来完成。AlmaLinux 是基于 RHEL 的一个开源发行版&#xff0c;因此其包管理系统和 RHEL 类似。以下是详细的步骤来安装 OpenJDK 8 1. 更新系统包列表 sudo dnf update -y 2. 安装 OpenJDK 8 使用 dnf 安装 OpenJDK 8。你可…

热斑黄斑光伏发电板 红外黄斑检测图像数据集内含最高温度信息 1200张,jpg格式。

热斑黄斑光伏发电板 红外黄斑检测图像数据集 内含最高温度信息 1200张&#xff0c;jpg格式。 热斑黄斑光伏发电板红外黄斑检测图像数据集介绍 数据集名称 热斑黄斑光伏发电板红外黄斑检测图像数据集&#xff08;Hot Spot and Yellow Spot Detection in Photovoltaic Panels I…

手势手语识别数据集,YOLOv5目标检测两个数据集,图大量,模型精度高分别为近100类

手势手语识别数据集&#xff0c;YOLOv5目标检测 两个数据集&#xff0c;图大量&#xff0c;模型精度高分别为近100类 手势手语识别数据集&#xff08;Sign Language Gesture Recognition Dataset&#xff09; 数据集概述 该数据集专为手势手语识别设计&#xff0c;包含大量的…

[深度学习]Pytorch框架

1 深度学习简介 应用领域:语音交互、文本处理、计算机视觉、深度学习、人机交互、知识图谱、分析处理、问题求解2 发展历史 1956年人工智能元年2016年国内开始关注深度学习2017年出现Transformer框架2018年Bert和GPT出现2022年,chatGPT出现,进入AIGC发展阶段3 PyTorch框架简…

Vue3(二)计算属性Computed,监视属性watch,watchEffect,标签的ref属性,propos属性,生命周期,自定义hook

文章目录 一 、计算属性1. 简写2. 完整写法 二、监视watch1. 监视【ref】定义的【基本类型】数据2. 监视【ref】定义的【对象类型】数据3. 监视【reactive】定义的【对象类型】数据4. 监视【ref】或【reactive】定义的【对象类型】数据中的某个属性5. 监视多个数据总结 三、wat…

html+css(如何用css做出京东页面,静态版)

<!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8"><meta name"viewport" content"widthdevice-width, initial-scale1.0"><title>京东</title><link rel"stylesheet&q…

基于Es和智普AI实现的语义检索

1、什么是语义检索 语义检索是一种利用自然语言处理&#xff08;NLP&#xff09;和人工智能&#xff08;AI&#xff09;技术来理解搜索查询的语义&#xff0c;以提供更准确和相关搜索结果的搜索技术&#xff0c;语义检索是一项突破性的技术&#xff0c;旨在通过深入理解单词和…

知识库管理系统的未来趋势:从单一平台到生态系统

在数字化浪潮的推动下&#xff0c;知识库管理系统&#xff08;Knowledge Base Management System, KBMS&#xff09;正逐步从传统的单一平台向更加开放、灵活、智能的生态系统转变。这一转变不仅体现了技术进步的必然结果&#xff0c;也深刻反映了市场需求的变化。本文将分析随…

neo4j节点关联路径的表示、节点的增删改查

目录 核心概念节点的增删改查&#xff08;1&#xff09;增&#xff08;2&#xff09;查&#xff08;3&#xff09;删&#xff08;4&#xff09;改 neo4j文档&#xff1a;https://neo4j.com/docs/ https://neo4j.com/docs/cypher-manual/current/introduction/ 核心概念 节点 ne…

如何将Excel表格嵌入Web网页在线预览、编辑并保存到自己服务器上?

猿大师办公助手作为一款专业级的网页编辑Office方案&#xff0c;不仅可以把微软Office、金山WPS和永中Office的Word文档内嵌到浏览器网页中实现在线预览、编辑保存等操作&#xff0c;还可以把微软Office、金山WPS和永中Office的Excel表格实现网页中在线预览、编辑并保存到服务器…

C++的哲学思想

C的哲学思想 文章目录 C的哲学思想&#x1f4a1;前言&#x1f4a1;C的哲学思想☁️C底层不应该基于任何其他语言&#xff08;汇编语言除外&#xff09;☁️只为使用的东西付费&#xff08;不需要为没有使用到的语言特性付费&#xff09;☁️以低成本提供高级抽象&#xff08;更…

在云渲染中3D工程文件安全性怎么样?

在云渲染中&#xff0c;3D工程文件的安全性是用户最关心的问题之一。随着企业对数据保护意识的增强&#xff0c;云渲染平台采取了严格的安全措施和加密技术&#xff0c;以确保用户数据的安全性和隐私性。 云渲染平台为了保障用户数据的安全&#xff0c;采取了多层次的安全措施。…

【VUE3.0】动手做一套像素风的前端UI组件库---Button

目录 引言做之前先仔细看看UI设计稿解读一下都有哪些元素&#xff1a;素材补充 代码编写1. 按钮四周边框2. 默认状态下按钮颜色立体效果3. 鼠标移入聚焦4. 模拟鼠标点击效果 组件封装1. 按类型设置颜色2. 设置按钮禁用状态3. 处理一个bug4. 看下整体组件效果5. 组件完整代码6. …

vue.js 展示一个树形结构的数据视图,并禁用其中默认选中的节点

功能描述 展示树形结构&#xff1a; 使用 Element UI 的 <el-tree> 组件展示树形结构数据。数据由 content 数组提供&#xff0c;树形结构包含了嵌套的节点及其子节点。 默认选中节点&#xff1a; 使用 defaultCheckedKeys 属性指定默认选中的节点。这些节点在树形结构渲…

求职Leetcode题目(11)

1.最长连续序列 解题思路: 方法一&#xff1a; • 首先对数组进行排序&#xff0c;这样我们可以直接比较相邻的元素是否连续。• 使用一个变量 cur_cnt 来记录当前的连续序列长度。• 遍历排序后的数组&#xff1a; 如果当前元素与前一个元素相等&#xff0c;则跳过&#xf…

Debian安装mysql遇到的问题解决及yum源配置

文章目录 一、安装mysql遇到的问题解决二、Debain系统mysql8.0的安装以及远程连接三、彻底卸载软件四、Python 操作 mysql五、debian软件源source.list文件格式说明1. 第一部分2. 第二部分3. 第三部分4. 第四部分5. 关于源的混用问题6. 按需修改自己的sources.list7. 更新软件包…