Kaggle竞赛入门级---泰坦尼克号飞船(0.80)

由于数据集需要翻墙,先附上数据集

链接:https://pan.baidu.com/s/10MTlK_3kXMRw6JsSTT8tVg?pwd=6666 
提取码:6666

注意正文会讲述我的步骤处理思路(代码可能并不会完整的放在正文中(这过于繁琐了),需要整段代码的请直接跳转至文末)

一、题目背景

在这个任务中,你的目标是预测在泰坦尼克号宇宙飞船与时空异常相撞期间,乘客是否被送往另一个维度,并传送回1000年前的同名时空。为了辅助你进行这些预测,你将获得一组从船上受损的计算机系统中恢复的个人记录。

1. 题目

在这场比赛中,你的任务是预测在泰坦尼克号宇宙飞船与时空异常相撞期间,乘客是否被运送到另一个维度,传送回1000年前同名的时空。为了帮助你做出这些预测,你会得到一组从船上损坏的计算机系统中恢复的个人记录。

2. 计算机中恢复的个人记录

  • train.csv - 包含约三分之二(约8700)乘客的个人记录,作为训练数据。
  • test.csv - 包含剩余三分之一(约4300)乘客的个人记录,作为测试数据。你的任务是预测这个集合中乘客的 Transported 值。

字段解释:

  • PassengerId - 每位乘客的唯一ID。每个ID的格式为 gggg_pp,其中 gggg 表示乘客所属的团体, pp 表示他们在团体中的序号。团体可以是家庭成员,但不限于此。
  • HomePlanet - 乘客的出发星球,通常是他们的永久居住星球。
  • CryoSleep - 指示乘客是否选择在航行期间进入冷冻睡眠状态。处于冷冻睡眠状态的乘客被限制在他们的客舱内。
  • Cabin - 乘客所住的舱位号,格式为 deck/num/side,其中 side 可以是 P(左舷)或 S(右舷)。
  • Destination - 乘客计划前往的目的地星球。
  • Age - 乘客的年龄。
  • VIP - 旅客在航程中是否支付了特殊VIP服务费用。
  • RoomServiceFoodCourtShoppingMallSpaVRDeck - 乘客在泰坦尼克号宇宙飞船上享受各项豪华设施所支付的费用。
  • Name - 乘客的姓名。

二、数据预处理

下图是excel中的数据(这比python显示会来的更加直观些),注意:每列数据都可能会有所空缺

下面我们来对各列数据 进行逐列分析来确认它们的补全策略(ps:初步补全可以利用生成,更加直观,当然excel直接利用筛选来看分布(这对于类别较少的列快些),两者可以看喜好使用)

2.1 空值补缺

首先观察各列空值情况,如下图id以及是否被传入异次元是无空值的,那么我们对其他列进行分析补空

首先,我们将空值去除(空值占比较少)后来管啥各个数据之间以及其与Transported是否有明显的关联性(对于关联性较差的空值可以选取众值或者均值补充,对于高关联性的则需要谨慎对待)

data_connectionreaserch = train_data.dropna()

丢弃后还有6606个数据,保存相对较多,可以体现相关性。

舍去id、name等难以编码的行,然后计算皮尔逊相关系数矩阵。

train_num = train_data.shape[0]
data = pd.concat([train_data,test_data],ignore_index=True)
data_connectionreaserch = train_data.dropna()#用来映射
data_connectionreaserch = data_connectionreaserch.drop(['Name'], axis=1)
data_connectionreaserch = data_connectionreaserch.drop(['Cabin'], axis=1)
data_connectionreaserch = data_connectionreaserch.drop(['PassengerId'], axis=1)
print(data_connectionreaserch)
map_HomePlanet ={
    'Earth':0,
    'Europa':1,
    'Mars':2
}
map_bool = {
    False : 0,
    True : 1
}
map_Destination = {
    '55 Cancri e' : 0,
    'PSO J318.5-22' : 1,
    'TRAPPIST-1e' : 2
}
data_connectionreaserch.loc[:,'HomePlanet'] = data_connectionreaserch.HomePlanet.map(map_HomePlanet)
data_connectionreaserch.loc[:,'Destination'] = data_connectionreaserch.Destination.map(map_Destination)
data_connectionreaserch.loc[:,'CryoSleep'] = data_connectionreaserch.CryoSleep.map(map_bool)
data_connectionreaserch.loc[:,'VIP'] = data_connectionreaserch.VIP.map(map_bool)
data_connectionreaserch.loc[:,'Transported'] = data_connectionreaserch.Transported.map(map_bool)
print(data_connectionreaserch.corr())

结果如下: 

从矩阵可以看书Transported与是否冷冻休眠有高相关,对于年龄、是否VIP相关性较低,综上,采取如下补空策略

1.ID pass,无空值

2.HomePlanet(居住星球),我们取众数Earth填充

3.CryoSleep(是否冷冻休眠):相关度较高,参考7奢侈服务,指定补空规则:若在旅途中产生任何服务费用,则选择非冷冻休眠,泛指则选择冷冻休眠

4.Destination(目的地)选用众数填充

5.Age 选用均数填充

6.VIP 选用众数填充

7.奢侈服务用5项中有3项相关度较高,采用若成员选择了冷冻休眠,服务均置零(当前数据集基冷冻休眠除控制外服务费用均为0,所以不考虑中途解冻可能性),剩余以均值填充(这点可以优化)

8.Name 直接drop掉

9.Cabin 暂时不处理(见特征拆分)

2.2 特征拆分

PlanA:

最后选择前6相关度高的作为训练集数据即: CryoSleep  RoomService  Spa  VRDeck  Destination  Age,最后得分71,平均80以上,所以对于特征工程还需要进一步分析

PlanB:

进一步提取特征

        Cabin 列,格式如下:(A-Z)/(int)/(P/S),其中A-Z表示休息仓区,int表示仓号,P/S表示在左舷或者右舷(PS:这里本来是做绘图的但是后来改着改着被我删了,懒得再写一遍),可以根据绘图比较明显的看出各个休息厂区以及左舷右舷被传送的概率并不是均匀的,这也就意味着,在这个项目中,位置关系是一个比重比较高的要素,所以我们将Cabin列拆分'Cabin_Deck', 'Cabin_Num', 'Cabin_Side'三项,类别特征以众数填充,数值特征以均值填充(K临近或许会更好些,但会比较耗费处理时间,读者可以尝试一下)

        D列,格式类似 0002-02,其中0002是序列号,没有实际意义,02表示他和0002-01,0002-03(如果存在)是一个group的,所以可以根据此提取出组员的特征,由于id无空值,所以无需补空。(组员更加可能会同时外出,对于有一定的空间影响因素)

   df_train[['Cabin_Deck', 'Cabin_Num', 'Cabin_Side']] = df_train['Cabin'].str.split('/', expand=True)
   df_test[['Cabin_Deck', 'Cabin_Num', 'Cabin_Side']] = df_test['Cabin'].str.split('/', expand=True)

   df_train=df_train.drop('Cabin', axis=1)
   df_test=df_test.drop('Cabin', axis=1)

   df_train['Family_id'] = df_train['PassengerId'].str.extract('(\d+)_', expand=False)
   df_train['Family_num'] = df_train['PassengerId'].str.extract('_(\d+)', expand=False)
   df_train['Family'] = df_train.groupby('Family_id')['Family_num'].transform('count')
   df_train = df_train.drop(['Family_id', 'Family_num'], axis=1)

   df_test['Family_id'] = df_test['PassengerId'].str.extract('(\d+)_', expand=False)
   df_test['Family_num'] = df_test['PassengerId'].str.extract('_(\d+)', expand=False)
   df_test['Family'] = df_test.groupby('Family_id')['Family_num'].transform('count')
   df_test = df_test.drop(['Family_id', 'Family_num'], axis=1)

        这样我们就获得了额外的4个特征项用于训练(PS:得出新的特征后还是可以通过plt或者sns绘图,来看分布,或者通过关系系数来找数值上的关联)

三、模型选择以及调参

3.1模型选择

        这是一个典型的二分类任务,对于二分类任务有很多的模型适用,机器学习算法中决策树、随机森林、XGBoost、Catboost等等算法,我们可以根据其性质选择最优的算法。(当然,这是入门级项目,大部分人了解可能并不深入,那么不妨试试用默认参数使用不同算法,选择得分最高的几个再进行调优,然后从结果往后推,为什么会适用这种情况)

        最终我选择了决策树以及CatBoost两个模型(决策树78.74,CatBoost0.80)

3.2调参

        调参很多人说是经验主义,那么经验较少的如何微调参数来提升模型正确率么(注意:我下面提供的方法当模型较大的时候会花费比较长的时间,小模型比较推荐),首先利用随机调参来获取较优的参数,然后在在该参数组区间内进行网格取优。

        最后提交得分。

最后附上全部代码2024.3.5,kaggle可以跑通(这里我只选用了随机调参,但其实是经过了几次随机+网格后确定大致范围了,再使用随机调参(毕竟网格穷举很慢。。。)减少模型运行时间)

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
##模型
from sklearn.linear_model import LogisticRegression
from sklearn.neighbors import KNeighborsClassifier
from sklearn.ensemble import RandomForestClassifier
## 评估
from sklearn.model_selection import train_test_split, cross_val_score
from sklearn.model_selection import RandomizedSearchCV , GridSearchCV
from sklearn.metrics import confusion_matrix , classification_report
from sklearn.metrics import precision_score , recall_score , f1_score,accuracy_score
from sklearn.metrics import RocCurveDisplay
from sklearn.model_selection import GridSearchCV
from sklearn.metrics import accuracy_score
import os
for dirname, _, filenames in os.walk('/kaggle/input'):
   for filename in filenames:
       print(os.path.join(dirname, filename))
train=pd.read_csv("/kaggle/input/spaceship-titanic/train.csv")
test=pd.read_csv("/kaggle/input/spaceship-titanic/test.csv")
df_train=train.drop("Name",axis=1)
df_test=test.drop("Name",axis=1)
# print(df_test.isna().sum())

from sklearn.compose import ColumnTransformer
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler, OneHotEncoder
#完成数据清洗+训练测试集切分
def preprocess_data(df_train, df_test):
   # Cabin按‘/'切分数据
   df_train[['Cabin_Deck', 'Cabin_Num', 'Cabin_Side']] = df_train['Cabin'].str.split('/', expand=True)
   df_test[['Cabin_Deck', 'Cabin_Num', 'Cabin_Side']] = df_test['Cabin'].str.split('/', expand=True)

   df_train=df_train.drop('Cabin', axis=1)
   df_test=df_test.drop('Cabin', axis=1)

   Needed_columns = ['HomePlanet', 'CryoSleep', 'Destination', 'VIP', 'Cabin_Deck', 'Cabin_Num', 'Cabin_Side']
   # #强关系填充
   df_train['CryoSleep'] = df_train.apply(lambda row: True if (
           row['RoomService'] == 0 and row['FoodCourt'] == 0 and row['ShoppingMall'] == 0 and row['Spa'] == 0 and
           row['VRDeck'] == 0 and row.isna().any()) else False, axis=1)
   df_train['RoomService'] = df_train.apply(lambda row: 0 if row['CryoSleep'] else row['RoomService'], axis=1)
   df_train['FoodCourt'] = df_train.apply(lambda row: 0 if row['CryoSleep'] else row['FoodCourt'], axis=1)
   df_train['ShoppingMall'] = df_train.apply(lambda row: 0 if row['CryoSleep'] else row['ShoppingMall'], axis=1)
   df_train['Spa'] = df_train.apply(lambda row: 0 if row['CryoSleep'] else row['Spa'], axis=1)
   df_train['VRDeck'] = df_train.apply(lambda row: 0 if row['CryoSleep'] else row['VRDeck'], axis=1)

   df_test['CryoSleep'] = df_test.apply(lambda row: True if (
           row['RoomService'] == 0 and row['FoodCourt'] == 0 and row['ShoppingMall'] == 0 and row['Spa'] == 0 and
           row['VRDeck'] == 0 and row.isna().any()) else False, axis=1)
   df_test['RoomService'] = df_test.apply(lambda row: 0 if row['CryoSleep'] else row['RoomService'], axis=1)
   df_test['FoodCourt'] = df_test.apply(lambda row: 0 if row['CryoSleep'] else row['FoodCourt'], axis=1)
   df_test['ShoppingMall'] = df_test.apply(lambda row: 0 if row['CryoSleep'] else row['ShoppingMall'], axis=1)
   df_test['Spa'] = df_test.apply(lambda row: 0 if row['CryoSleep'] else row['Spa'], axis=1)
   df_test['VRDeck'] = df_test.apply(lambda row: 0 if row['CryoSleep'] else row['VRDeck'], axis=1)

   df_train['Family_id'] = df_train['PassengerId'].str.extract('(\d+)_', expand=False)
   df_train['Family_num'] = df_train['PassengerId'].str.extract('_(\d+)', expand=False)
   df_train['Family'] = df_train.groupby('Family_id')['Family_num'].transform('count')
   df_train = df_train.drop(['Family_id', 'Family_num'], axis=1)

   df_test['Family_id'] = df_test['PassengerId'].str.extract('(\d+)_', expand=False)
   df_test['Family_num'] = df_test['PassengerId'].str.extract('_(\d+)', expand=False)
   df_test['Family'] = df_test.groupby('Family_id')['Family_num'].transform('count')
   df_test = df_test.drop(['Family_id', 'Family_num'], axis=1)


   #获取没列众数
   most = df_train[Needed_columns].mode().iloc[0]

   # 众数填充
   df_train[Needed_columns] = df_train[Needed_columns].fillna(most)
   df_test[Needed_columns] = df_test[Needed_columns].fillna(most)
   numerical_cols = df_train.columns[df_train.dtypes == 'float64']
   # 均值填充
   df_train[numerical_cols] = df_train[numerical_cols].fillna(df_train[numerical_cols].mean())
   df_test[numerical_cols] = df_test[numerical_cols].fillna(df_test[numerical_cols].mean())
   df_train['Cabin_Num'] = df_train['Cabin_Num'].astype(int)
   df_test['Cabin_Num'] = df_test['Cabin_Num'].astype(int)
   X = df_train.drop(['Transported', 'PassengerId'], axis=1)
   y = df_train['Transported'].astype(int)
   # 分类特征(bool也算)
   categorical_features = ['HomePlanet', 'CryoSleep', 'Destination', 'VIP', 'Cabin_Deck', 'Cabin_Side']
   #int
   numerical_features = ['Age', 'RoomService', 'FoodCourt', 'ShoppingMall', 'Spa', 'VRDeck', 'Cabin_Num','Family']

   preprocessor = ColumnTransformer(
       transformers=[
           ('num', StandardScaler(), numerical_features),#0-1转换
           ('cat', OneHotEncoder(), categorical_features) #独热
       ])

   X_prep = preprocessor.fit_transform(X)
   test_prep = preprocessor.fit_transform(df_test)
   X_train, X_test, y_train, y_test = train_test_split(X_prep, y, test_size=0.2, random_state=42)

   return X_train, X_test, y_train, y_test,test_prep

X_train, X_test, y_train, y_test, test_prep = preprocess_data(df_train, df_test)
# import catboost as cb
# cb_claasifier = cb.CatBoostClassifier()
# # params = {'n_estimators': [50, 100, 200],
# #               # 'max_depth': [None, 10, 20]}
# params ={'iterations':[160,180,190,200], 'depth':[4,5,6,7], 'learning_rate':[0.05,0.1,0.15],'random_strength':[1,2,4,6]}
# #{'depth': 5, 'iterations': 180, 'learning_rate': 0.1, 'random_strength': 1}  0.7999

# grid_search_ranf = GridSearchCV(estimator=cb_claasifier, param_grid=params, cv=3, scoring='neg_log_loss', n_jobs=-1)
# grid_search_ranf.fit(X_train, y_train)

# print("Best RandomForest:", grid_search_ranf.best_params_)
# best_ranf_model = grid_search_ranf.best_estimator_
# y_pred_ranf2 = best_ranf_model.predict(X_test)
# accuracy_2_ranf = accuracy_score(y_test, y_pred_ranf2)
# print("Accuracy:", accuracy_2_ranf)
# y_pred_ranf = best_ranf_model.predict(test_prep)
# pred_df = pd.DataFrame({
#    'PassengerId': df_test['PassengerId'],
#    'Transported': y_pred_ranf
# })

# pred_df['Transported'] = pred_df['Transported'].astype(bool)

# pred_df.to_csv("sample_submission.csv", index = False)
##随机取优
import pandas as pd
from catboost import CatBoostClassifier
from sklearn.model_selection import RandomizedSearchCV
from scipy.stats import randint

cb_classifier = CatBoostClassifier(verbose=False)

param_space = {
    'iterations': randint(100, 1000),  # 迭代次数
    'depth': randint(4, 10),  # 树的最大深度
    'learning_rate': [0.01, 0.05, 0.1, 0.15, 0.2],  # 学习率
    'l2_leaf_reg': randint(1, 10),  # L2 正则化系数
    'border_count': randint(100, 200),  # 边界计数
    'subsample': [0.5,0.6, 0.7, 0.8, 0.9, 1.0],  # 子样本比例
    'colsample_bylevel': [0.5, 0.6 , 0.7 , 0.8 , 0.9 ,1.0],  # 列采样比例
    'random_strength': randint(1, 10)  # 随机强度
}

random_search_cb = RandomizedSearchCV(estimator=cb_classifier, param_distributions=param_space, n_iter=100, cv=3, scoring='accuracy', n_jobs=-1)

random_search_cb.fit(X_train, y_train)

print("Best parameters:", random_search_cb.best_params_)

best_cb_model = random_search_cb.best_estimator_
y_pred_cb = best_cb_model.predict(X_test)
accuracy_cb = accuracy_score(y_test, y_pred_cb)
print("Accuracy:", accuracy_cb)
y_pred_test_cb = best_cb_model.predict(test_prep)
pred_df_cb = pd.DataFrame({
    'PassengerId': df_test['PassengerId'],
    'Transported': y_pred_test_cb
})
pred_df_cb['Transported'] = pred_df_cb['Transported'].astype(bool)

pred_df_cb.to_csv("submission_cb_random_search.csv", index=False)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/433079.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

ArmSoM Rockchip系列产品 通用教程 之 HDMI-IN使用

1. HDMI-IN简介 HDMI IN功能可以通过桥接芯⽚的⽅式实现,将HDMI信号转换成MIPI信号接收RK3588芯⽚平台⾃带HDMI RX模块,可以直接接收HDMI信号,无需通过桥接芯⽚实现。在ArmSoM系列产品中,ArmSoM-W3支持HDMI-IN功能HDMI-IN功能框图…

华大基因护航沙特“2030愿景”实现,将“中国技术”带到中东市场

沙特“2030愿景”提出,要将国民平均寿命从74岁提高到80岁。沙特人民日益增长的医疗健康需求亟待更加全面、高效的医疗卫生体系。2023年,在沙特首都利雅得,由华大基因沙特全资子公司与当地合作方共同成立的综合精准医学检验实验室Genalive开业…

基于单片机的数字温度计设计

目 录 摘 要 I Abstract II 引 言 1 1 整体方案设计 3 1.1 主控芯片类型选择 3 1.2 测温电路选择 3 1.3 系统总体方案 4 2 系统的硬件电路设计 5 2.1 单片机系统设计 5 2.2 显示模块设计 8 2.3 温度读取电路的设计 10 3 系统软件设计 13 3.1 软件开发环境的介绍 13 3.2 系统重…

图像分类技术在城市垃圾分类与处理中的应用与实践

一、引言 在当今世界,城市化进程不断加快,随之而来的是日益增长的垃圾处理压力。城市生活垃圾、工业固体废物和危险废物的处理已经成为环境保护领域的一大挑战。为了应对这一挑战,卫生填埋、垃圾堆肥和垃圾焚烧等技术路线应运而生。其中&…

(文末送书)直击前沿技术:《低代码平台开发实践:基于React》

目录 前言 一、React与低代码平台的结合优势 二、基于React的低代码平台开发挑战 三、基于React的低代码平台开发实践 四、书籍推荐 《低代码平台开发实践:基于React》 1、图书介绍 2、适用人群 3、 作者简介 4、写书原由 5、解决问题 6、书…

2024年冲刺年薪40w,java面试常问知识点

前言 刚刚过去的双十一,让“高性能”“高可用”“亿级”这3个词变成了技术热点词汇,也让很多人再次萌发成为「架构师」的想法。先问大家一个问题:你觉得把代码熟练、完成需求加上点勤奋,就能成为架构师么?如果你这么认…

数据结构详解①——诸论

目录 前言 引入: 基本概念和术语 数据 数据元素 数据项 数据对象 数据结构 逻辑结构 物理结构 数据类型 为什么要设计出来数据类型呢? 数据类型的分类 抽象数据类型 数据结构与算法的关系 算法 定义 特性 设计要求 效率度量方法 事…

nodejs版本管理工具nvm安装和环境变量配置

1、下载nvm.exe https://github.com/coreybutler/nvm-windows/releases2、安装 1.在D盘根目录新建一个dev文件夹,在dev里面再新建一个nodejs。 2.双击下载好的nvm.exe 修改文件路径,且路径中不能有中文 3.安装完成后在D:\dev\nvm打开settings.txt&…

网络信息安全:11个常见漏洞类型汇总

一、SQL注入漏洞 SQL注入攻击(SQL Injection),简称注入攻击、SQL注入,被广泛用于非法获取网站控制权,是发生在应用程序的数据库层上的安全漏洞。 在设计程序,忽略了对输入字符串中夹带的SQL指令的检查&…

C语言写学生信息管理系统

说明:本博文来自CSDN-问答板块,题主提问。 需要:用C语言设计一个学生信息管理系统(尽量不使用指针),学生信息包括学号,姓名,数学成绩,C语言成绩,英语成绩和每个学生的总成绩这几项。系统要实现如下几个功能:1.添加学生2.删除学生3.修改学生信息4.查询学生信息5进行学…

阿里云服务器ECS u1实例性能怎么样?有用过的吗?

阿里云服务器u1是通用算力型云服务器,CPU采用2.5 GHz主频的Intel(R) Xeon(R) Platinum处理器,通用算力型u1云服务器不适用于游戏和高频交易等需要极致性能的应用场景及对业务性能一致性有强诉求的应用场景(比如业务HA场景主备机需要性能一致)&#xff0c…

自学高效备考2024年AMC10:2000-2023年1250道AMC10真题解析

我们今天继续来随机看5道AMC10真题,以及详细解析,这些题目来自1250道完整的官方历年AMC10真题库。通过系统研究和吃透AMC10的历年真题,参加AMC10的竞赛就能拿到好名次。即使不参加AMC10竞赛,初中和高中数学一定会学得比较轻松、游…

【深度学习应用】基于Bert模型的中文语义相似度匹配算法[离线模式]

1、准备中文离线模型 配置文件夹 文件获取方法: 访问官网:https://huggingface.co/bert-base-chinese/tree/main 下载以下文件 2、测试代码 # -*- coding: utf-8 -*- #pip install transformers -i https://mirrors.aliyun.com/pypi/simple/ #pip …

在整个价值链构建负责任的 AI

在整个价值链构建负责任的 AI:从数据到部署,以合乎伦理道德的方式构建 AI 构建合乎伦理道德的 AI 是所有人工智能企业的责任,这一点再怎么强调都不为过。负责任或合乎伦理道德的 AI 能够做到公正、公平,并能改善AI服务人群的生活…

2024年主攻外贸爆款产品,聚焦10个重要国家

2024年中企出海趋势明显,中小微企业纷纷布局。提供15个国家重点进口产品供参考,助力选品和行业开发。 以下是15个重点国家的爆款产品: 一、美国进口频次前10位 二、俄罗斯进口频次前10位 三、英国进口频次前10位 四、越南进口频次前10位 五…

Claude 3超越GPT-4?Anthropic发布新一代AI模型,Opus在多领域展现行业新水准,你不得不看的全面解析!

Anthropic发布了新一代AI模型——Claude 3。 这个系列包括Haiku、Sonnet和Opus三个模型。 特别是Opus,在多个基准测试中,它的表现都超过了我们熟知的GPT-4和Gemini 1.0 Ultra。 在数学、编程、多语言理解和视觉处理等多个方面,Opus都展现了…

期货开户交易切勿满仓操作

平时我们交易主要是仓位管理风险,切勿不要满仓操作,满仓相当于一锤子买卖,我们做交易要有交易计划,计划中除了开仓点.止损点.止盈点外,还有加仓点,所以我们要留下充足的加仓仓位,有很多投资者是…

如何处理Docker容器占用空间不断变大

在使用Docker容器时,一个常见的问题是容器占用的空间会不断增大,导致磁盘空间的快速耗尽。这种情况可能会给系统带来不必要的负担,因此需要及时处理。本文将介绍一些解决Docker容器占用空间不断增大问题的方法。 首先,我们需要了…

基于vgg16进行迁移学习服装分类

pytorch深度学习项目实战100例 的学习记录 我的环境: 白票大王: google colab 用其他的话,其实实现也行,但是让小白来重环境来开始安装的话,浪费时间 数据集 Clothing dataset 20 个不同类别的 5000 多张图片。 该…

基于springboot+vue实现电子商务平台管理系统项目【项目源码+论文说明】

基于springboot实现电子商务平台管理系统演示 研究的目的和意义 据我国IT行业发布的报告表明,近年来,我国互联网发展呈快速增长趋势,网民的数量已达8700万,逼近世界第一,并且随着宽带的实施及降价,每天约有…
最新文章