机器学习之图半监督学习LabelSpreading

IT教程 4年前 (2020) https://www.55wd.com

spreading

  • 机器学习之图半监督学习LabelSpreading
# -*- coding: utf-8 -*-
"""
Created on Tue Dec  4 13:32:30 2018

@author: muli
"""

import numpy as np
import matplotlib.pyplot as plt
from sklearn import  metrics
from sklearn import datasets

from scipy.sparse.csgraph import connected_components
# 解决AttributeError: module 'scipy.sparse' has no attribute 'csgraph'问题
from sklearn.semi_supervised.label_propagation import LabelSpreading


def load_data():
    '''
    加载数据集

    :return: 一个元组,依次为: 样本集合、样本标记集合、 未标记样本的下标集合
    '''
    digits = datasets.load_digits()
    ######   混洗样本 ########
    rng = np.random.RandomState(0)
    indices = np.arange(len(digits.data)) # 样本下标集合
    rng.shuffle(indices) # 混洗样本下标集合
    X = digits.data[indices]
    y = digits.target[indices]
    ###### 生成未标记样本的下标集合 ####
    n_labeled_points = int(len(y)/10) # 只有 10% 的样本有标记
    unlabeled_indices = np.arange(len(y))[n_labeled_points:] # 后面 90% 的样本未标记

    return X,y,unlabeled_indices


def test_LabelSpreading(*data):
    '''
    测试 LabelSpreading 的用法

    :param data: 一个元组,依次为: 样本集合、样本标记集合、 未标记样本的下标集合
    :return: None
    '''
    X,y,unlabeled_indices=data
    y_train=np.copy(y) # 必须拷贝,后面要用到 y
    y_train[unlabeled_indices]=-1 # 未标记样本的标记设定为 -1
    clf=LabelSpreading(max_iter=100,kernel='rbf',gamma=0.1)
    clf.fit(X,y_train)
    ### 获取预测准确率
    predicted_labels = clf.transduction_[unlabeled_indices] # 预测标记
    true_labels = y[unlabeled_indices] # 真实标记
    print("Accuracy:%f"%metrics.accuracy_score(true_labels,predicted_labels))
    # 或者 print("Accuracy:%f"%clf.score(X[unlabeled_indices],true_labels))
    

def test_LabelSpreading_rbf(*data):
    '''
    测试 LabelSpreading 的 rbf 核时,预测性能随 alpha 和 gamma 的变化

    :param data: 一个元组,依次为: 样本集合、样本标记集合、 未标记样本的下标集合
    :return: None
    '''
    X,y,unlabeled_indices=data
    y_train=np.copy(y) # 必须拷贝,后面要用到 y
    y_train[unlabeled_indices]=-1 # 未标记样本的标记设定为 -1

    fig=plt.figure()
    ax=fig.add_subplot(1,1,1)
    alphas=np.linspace(0.01,1,num=10,endpoint=False)
    gammas=np.logspace(-2,2,num=50)
    colors=((1,0,0),(0,1,0),(0,0,1),(0.5,0.5,0),(0,0.5,0.5),(0.5,0,0.5),
        (0.4,0.6,0),(0.6,0.4,0),(0,0.6,0.4),(0.5,0.3,0.2),) # 颜色集合,不同曲线用不同颜色
    ## 训练并绘图
    for alpha,color in zip(alphas,colors):
        scores=[]
        for gamma in gammas:
            clf=LabelSpreading(max_iter=100,gamma=gamma,alpha=alpha,kernel='rbf')
            clf.fit(X,y_train)
            scores.append(clf.score(X[unlabeled_indices],y[unlabeled_indices]))
        ax.plot(gammas,scores,label=r"$\alpha=%s$"%alpha,color=color)

    ### 设置图形
    ax.set_xlabel(r"$\gamma$")
    ax.set_ylabel("score")
    ax.set_xscale("log")
    ax.legend(loc="best")
    ax.set_title("LabelSpreading rbf kernel")
    plt.show()


def test_LabelSpreading_knn(*data):
    '''
   测试 LabelSpreading 的 knn 核时,预测性能随 alpha 和 n_neighbors 的变化


    :param data:  一个元组,依次为: 样本集合、样本标记集合、 未标记样本的下标集合
    :return:  None
    '''
    X,y,unlabeled_indices=data
    y_train=np.copy(y) # 必须拷贝,后面要用到 y
    y_train[unlabeled_indices]=-1 # 未标记样本的标记设定为 -1

    fig=plt.figure()
    ax=fig.add_subplot(1,1,1)
    alphas=np.linspace(0.01,1,num=10,endpoint=False)
    Ks=[1,2,3,4,5,8,10,15,20,25,30,35,40,50]
    colors=((1,0,0),(0,1,0),(0,0,1),(0.5,0.5,0),(0,0.5,0.5),(0.5,0,0.5),
        (0.4,0.6,0),(0.6,0.4,0),(0,0.6,0.4),(0.5,0.3,0.2),) # 颜色集合,不同曲线用不同颜色
    ## 训练并绘图
    for alpha,color in zip(alphas,colors):
        scores=[]
        for K in Ks:
            clf=LabelSpreading(kernel='knn',max_iter=100,n_neighbors=K,alpha=alpha)
            clf.fit(X,y_train)
            scores.append(clf.score(X[unlabeled_indices],y[unlabeled_indices]))
        ax.plot(Ks,scores,label=r"$\alpha=%s$"%alpha,color=color)

    ### 设置图形
    ax.set_xlabel(r"$k$")
    ax.set_ylabel("score")
    ax.legend(loc="best")
    ax.set_title("LabelSpreading knn kernel")
    plt.show()


 
if __name__=='__main__':
    data=load_data() # 获取半监督分类数据集
#    test_LabelSpreading(*data) # 调用 test_LabelSpreading
#    test_LabelSpreading_rbf(*data)# 调用 test_LabelSpreading_rbf
    test_LabelSpreading_knn(*data)# 调用 test_LabelSpreading_knn

  • 如图:

    机器学习之图半监督学习LabelSpreading

知识服务的未来(一):学习的本质与特征

知识服务者该提供什么样的产品?面对当下的市场需求变革又该遵循什么样的逻辑打造产品?随着当下科技的迅猛发展,科技对现实生活的影响

Petri网学习(四):Petri网的结构性质

一、结构有界性&守恒性 1. 结构有界性 定义:设N=(P,T;F)为一个网。对N赋予任意的初始标识M0,网(N,M0)都是有界的,则称N为结构有界

Spark学习(一)

Spark Spark简介 Lightning-fast unified analytics engine(快如闪电的统一分析引擎),是一个用于大规模数据处理的统一分析引擎。

2、嵌入式学习之uCOS-II基础入门

内核(Kernel) 多任务系统中,内核负责管理各个任务,或者说为每个任务分配CPU时间,并且负责任务之间的通讯。内核提供的基本服务是任务

刘媛媛学习方法论

有目的的学习,目的不能模糊,学习范围不能太大,会致使学习深度不够,如何提高效率: 1、有目的的学习学习容量,解决问题的数量有限,所以学习

文章回顾

大家看了本文机器学习之图半监督学习LabelSpreading的精彩教程资源内容,是不是对机器学习之图半监督学习LabelSpreading了解更多,真心希望机器学习之图半监督学习LabelSpreading能帮助到你, 小编会一直给你带来更多教程资源文章信息。

版权声明: 发表于 2020-07-09 17:48:26。

本文由第三方用户分享仅代表作者观点,不代表本网站立场,秉承互联网开放分享的精神,目的在于传递更多信息,加强各行业互通交流,但对内容不作任何保证或承诺,请读者自行参考斟酌。网站发布的信息(包含但不限于版式、图片、字体、文章等素材)由第三方用户分享,版权归原作者所有,本站不承担任何相关的版权纠纷等相关责任。如您认为本篇内容侵犯了您的权益,请与我们联系,我们会及时处理。

豌豆资源网专注分享全网综合资源网站大全,致力于超实用的内容资源搜索。

转载请注明:
本文标题:机器学习之图半监督学习LabelSpreading
本文地址:https://55wd.com/s104206/