【面试大题】决策树

决策树知识点

ID3 规则——信息增益(基于熵)

  1. 先计算根结点的信息熵 H ( D ) = − ∑ k = 1 ∣ Y ∣ p k log ⁡ p k H(D)=-\sum_{k=1}^{|Y|}{p_k\log{p_k}} H(D)=k=1Ypklogpk
  2. 再计算根据某特征分割之后的条件熵 H ( D ∣ f e a t u r e ) = ∑ v V ∣ D v ∣ ∣ D ∣ ∑ k = 1 ∣ Y ∣ p k log ⁡ p k H(D|feature)=\sum_{v}^{V}{\frac{|D^v|}{|D|}\sum_{k=1}^{|Y|}{p_k\log{p_k}}} H(Dfeature)=vVDDvk=1Ypklogpk
  3. 两者相减得到信息增益 g ( D , f e a t u r e ) = H ( D ) − H ( D ∣ f e a t u r e ) g(D,feature)=H(D)-H(D|feature) g(D,feature)=H(D)H(Dfeature)

C4.5 规则——信息增益比(基于熵)

  1. 先按照 ID3 规则计算出信息增益 g ( D , f e a t u r e ) g(D,feature) g(D,feature)
  2. 计算该特征的“固有值”(类似于归一化因子) I V ( f e a t u r e ) = − ∑ v = 1 V ∣ D v ∣ ∣ D ∣ log ⁡ 2 ∣ D v ∣ ∣ D ∣ IV(feature)=-\sum_{v=1}^{V}{\frac{|D^v|}{|D|}\log_2{\frac{|D^v|}{|D|}}} IV(feature)=v=1VDDvlog2DDv
    可以看到这个公式和熵很像,其实就是把特征的每一个取值都当成一个结点,并假设每个结点纯度都为100%算出来的一个假想中的熵,用于去除由于特征取值过多带来的假性信息增益。
  3. 增益比为两者相除: G a i n _ r a t i o ( D , f e a t u r e ) = g ( D , f e a t u r e ) I V ( f e a t u r e ) Gain\_ratio(D,feature)=\frac{g(D,feature)}{IV(feature)} Gain_ratio(D,feature)=IV(feature)g(D,feature)

例如:西瓜数据集
在这里插入图片描述
若把编号当作一种特征,则其“固有值”为:
I V ( 编号 ) = − ( 1 14 log ⁡ 2 1 14   + . . .   ⏞ 14 个特征取值 ) = − 14 ∗ ( 1 14 log ⁡ 2 1 14 ) = 3.80735 IV(编号)=- {\left(\overset{14个特征取值}{\overbrace{\frac{1}{14}{\log_{2}\frac{1}{14}}~ + ...~}}\right)} = - 14*\left( {\frac{1}{14}{\log_{2}\frac{1}{14}}} \right) =3.80735 IV(编号)= 141log2141 +...  14个特征取值 =14(141log2141)=3.80735

CART 规则——基尼指数(基于基尼值)

基尼值: G i n i ( D ) = 1 − ∑ k = 1 ∣ Y ∣ p k 2 Gini(D)=1-\sum_{k=1}^{|Y|}{p_k^2} Gini(D)=1k=1Ypk2
基尼指数: G i n i _ i n d e x ( D , f e a t u r e ) = ∑ v = 1 V ∣ D v ∣ ∣ D ∣ G i n i ( D v ) Gini\_index(D,feature)=\sum_{v=1}^{V}{\frac{|D^v|}{|D|}Gini(D^v)} Gini_index(D,feature)=v=1VDDvGini(Dv)

需要注意的是,CART 和 ID3、C4.5 规则不同,CART 树是二叉树,并且特征可复用,因此在进行特征分类的时候,对于取值大于等于3的特征,需要多次分裂才能判断完全

例子:工作数据集
在这里插入图片描述
G i n i ( D , 工资 ) = 3 8 ∗ ( 1 − ( 3 3 ) 2 − ( 0 3 ) 2 ) + 5 8 ∗ ( 1 − ( 3 5 ) 2 − ( 2 5 ) 2 ) = 0.3 Gini(D,\mathbf{工资})=\frac{3}{8}*(1-(\frac{3}{3})^2-(\frac{0}{3})^2)+\frac{5}{8}*(1-(\frac{3}{5})^2-(\frac{2}{5})^2)=\mathbf{0.3} Gini(D,工资)=83(1(33)2(30)2)+85(1(53)2(52)2)=0.3

G i n i ( D , 压力 ) = 3 8 ∗ ( 1 − ( 2 3 ) 2 − ( 1 3 ) 2 ) + 5 8 ∗ ( 1 − ( 1 5 ) 2 − ( 4 5 ) 2 ) = 0.37 Gini(D,压力)=\frac{3}{8}*(1-(\frac{2}{3})^2-(\frac{1}{3})^2)+\frac{5}{8}*(1-(\frac{1}{5})^2-(\frac{4}{5})^2)=0.37 Gini(D,压力)=83(1(32)2(31)2)+85(1(51)2(54)2)=0.37

G i n i ( D , 平台 = 0 ) = 3 8 ∗ ( 1 − ( 3 3 ) 2 − ( 0 3 ) 2 ) + 5 8 ∗ ( 1 − ( 3 5 ) 2 − ( 2 5 ) 2 ) = 0.3 Gini(D,\mathbf{平台=0})=\frac{3}{8}*(1-(\frac{3}{3})^2-(\frac{0}{3})^2)+\frac{5}{8}*(1-(\frac{3}{5})^2-(\frac{2}{5})^2)=\mathbf{0.3} Gini(D,平台=0)=83(1(33)2(30)2)+85(1(53)2(52)2)=0.3

G i n i ( D , 平台 = 1 ) = 3 8 ∗ ( 1 − ( 2 3 ) 2 − ( 1 3 ) 2 ) + 5 8 ∗ ( 1 − ( 4 5 ) 2 − ( 1 5 ) 2 ) = 0.37 Gini(D,平台=1)=\frac{3}{8}*(1-(\frac{2}{3})^2-(\frac{1}{3})^2)+\frac{5}{8}*(1-(\frac{4}{5})^2-(\frac{1}{5})^2)=0.37 Gini(D,平台=1)=83(1(32)2(31)2)+85(1(54)2(51)2)=0.37

G i n i ( D , 平台 = 2 ) = 2 8 ∗ ( 1 − ( 1 2 ) 2 − ( 1 2 ) 2 ) + 6 8 ∗ ( 1 − ( 4 6 ) 2 − ( 2 6 ) 2 ) = 0.46 Gini(D,平台=2)=\frac{2}{8}*(1-(\frac{1}{2})^2-(\frac{1}{2})^2)+\frac{6}{8}*(1-(\frac{4}{6})^2-(\frac{2}{6})^2)=0.46 Gini(D,平台=2)=82(1(21)2(21)2)+86(1(64)2(62)2)=0.46

基尼指数越小,说明结点划分越纯,综上,选择工资或者平台=0作为划分标准


问题1

以下是目标变量在训练集上的 8 个实际值 [0,0,0,1,1,1,1,1],目标变量的熵是所少?
A、 − ( 5 / 8 log ⁡ ( 5 / 8 ) + 3 / 8 log ⁡ ( 3 / 8 ) ) -(5/8 \log(5/8) + 3/8 \log(3/8)) (5/8log(5/8)+3/8log(3/8))
B、 5 / 8 log ⁡ ( 5 / 8 ) + 3 / 8 log ⁡ ( 3 / 8 ) 5/8 \log(5/8) + 3/8 \log(3/8) 5/8log(5/8)+3/8log(3/8)
C、 3 / 8 log ⁡ ( 5 / 8 ) + 5 / 8 log ⁡ ( 3 / 8 ) 3/8 \log(5/8) + 5/8 \log(3/8) 3/8log(5/8)+5/8log(3/8)
D、 5 / 8 log ⁡ ( 3 / 8 ) – 3 / 8 log ⁡ ( 5 / 8 ) 5/8 \log(3/8) – 3/8 \log(5/8) 5/8log(3/8)–3/8log(5/8)
答案:A
解析:信息熵的公式为:
− ∑ i p i log ⁡ p i -\sum_{i}{p_i \log{p_i}} ipilogpi

问题2

下面关于ID3算法中说法错误的是( )
A、ID3算法要求特征必须离散化
B、信息增益可以用熵,而不是GINI系数来计算
C、选取信息增益最大的特征,作为树的根节点
D、ID3算法是一个二叉树模型
答案:D
解析:ID3算法(IterativeDichotomiser3迭代二叉树3代)是一个由RossQuinlan发明的用于决策树的算法。可以归纳为以下几点: 使用所有没有使用的属性并计算与之相关的样本熵值 选取其中熵值最小的属性 生成包含该属性的节点 D3算法对数据的要求: 1)所有属性必须为离散量; 2)所有的训练例的所有属性必须有一个明确的值; 3)相同的因素必须得到相同的结论且训练例必须唯一。

问题3

决策树的父节点和子节点的熵的大小关系是什么?
A. 决策树的父节点更大
B. 子节点的熵更大
C. 两者相等
D. 根据具体情况而定
答案:D
解析:假设一个父节点有2正3负样本
H ( D ) = − 2 5 log ⁡ 2 5 − 3 5 log ⁡ 3 5 = 0.29229 H(D) = - \frac{2}{5}{\log\frac{2}{5}} - \frac{3}{5}{\log\frac{3}{5}} = 0.29229 H(D)=52log5253log53=0.29229
进一步分裂
情况1:两个叶节点(2正,3负),计算条件熵:

H ( D 1 ) = − 0 log ⁡ 0 − 1 log ⁡ 1 = 0 H\left( D_{1} \right) = - 0{\log 0} - 1{\log 1} = 0 H(D1)=0log01log1=0

H ( D 2 ) = − 0 log ⁡ 0 − 1 log ⁡ 1 = 0 H\left( D_{2} \right) = - 0{\log 0} - 1{\log 1} = 0 H(D2)=0log01log1=0

计算信息增益:
g = 0.29229 − [ 2 5 ∗ 0 + 3 5 ∗ 0 ] = 0.29229 g = 0.29229 - \left\lbrack {\frac{2}{5}*0 + \frac{3}{5}*0} \right\rbrack = 0.29229 g=0.29229[520+530]=0.29229
情况2:两个叶节点(1正1负,1正2负),计算条件熵:。

H ( D 1 ) = − 1 2 log ⁡ 1 2 − 1 2 log ⁡ 1 2 = 0.30103 H\left( D_{1} \right) = - \frac{1}{2}{\log\frac{1}{2}} - \frac{1}{2}{\log\frac{1}{2}} = 0.30103 H(D1)=21log2121log21=0.30103

H ( D 2 ) = − 1 3 log ⁡ 1 3 − 2 3 log ⁡ 2 3 = 0.27643 H\left( D_{2} \right) = - \frac{1}{3}{\log\frac{1}{3}} - \frac{2}{3}{\log\frac{2}{3}} = 0.27643 H(D2)=31log3132log32=0.27643

计算信息增益:
g = 0.29229 − [ 2 5 ∗ 0.30103 + 3 5 ∗ 0.27643 ] = 0.00602 g = 0.29229 - \left\lbrack {\frac{2}{5}*0.30103 + \frac{3}{5}*0.27643} \right\rbrack = 0.00602 g=0.29229[520.30103+530.27643]=0.00602
分别看下情况1和情况2,分裂前后确实都有信息增益,但是两种情况里不是每一个叶节点都比父节点的熵小。

问题4

如下表是用户是否使用某产品的调查结果( ) 请计算年龄、地区、学历、收入中对用户是否使用调查产品信息增益最大的属性。
在这里插入图片描述

A、年龄
B、地区
C、学历
D、收入
答案:C
解析:
在这里插入图片描述
在这里插入图片描述

问题5

给定一个天气数据集,请问最优划分特征是什么?
在这里插入图片描述
先计算label本身的熵:
H ( D ) = − 9 14 log ⁡ 9 14 − 5 14 log ⁡ 5 14 = 0.28305 H(D) = - \frac{9}{14}{\log\frac{9}{14}} - \frac{5}{14}{\log\frac{5}{14}} = 0.28305 H(D)=149log149145log145=0.28305
计算Outlook的条件熵:
H ( D | o u t l o o k = s u n n y ) = 5 14 [ − 2 5 log ⁡ 2 5 − 3 5 log ⁡ 3 5 ] = 0.10109 H\left( D \middle| outlook = sunny \right) = \frac{5}{14}\left\lbrack {- \frac{2}{5}{\log\frac{2}{5}} - \frac{3}{5}{\log\frac{3}{5}}} \right\rbrack = 0.10109 H(Doutlook=sunny)=145[52log5253log53]=0.10109

H ( D | o u t l o o k = o v e r c a s t ) = 0 H\left( D \middle| outlook = overcast \right) = 0 H(Doutlook=overcast)=0

H ( D | o u t l o o k = r a i n y ) = 5 14 [ − 2 5 log ⁡ 2 5 − 3 5 log ⁡ 3 5 ] = 0.10109 H\left( D \middle| outlook = rainy \right) = \frac{5}{14}\left\lbrack {- \frac{2}{5}{\log\frac{2}{5}} - \frac{3}{5}{\log\frac{3}{5}}} \right\rbrack = 0.10109 H(Doutlook=rainy)=145[52log5253log53]=0.10109

计算Outlook的信息增益:
g ( D , o u t l o o k ) = 0.28305 − 0.10109 ∗ 2 = 0.08087 \mathbf{g}\left( {\mathbf{D},\mathbf{o}\mathbf{u}\mathbf{t}\mathbf{l}\mathbf{o}\mathbf{o}\mathbf{k}} \right) = 0.28305 - 0.10109*2 =\mathbf{0.08087} g(D,outlook)=0.283050.101092=0.08087

计算Humidity的条件熵:
H ( D | H u m i d i t y = h i g h ) = 7 14 [ − 3 7 log ⁡ 3 7 − 4 7 log ⁡ 4 5 ] = 0.14829 H\left( D \middle| Humidity = high \right) = \frac{7}{14}\left\lbrack {- \frac{3}{7}{\log\frac{3}{7}} - \frac{4}{7}{\log\frac{4}{5}}} \right\rbrack = 0.14829 H(DHumidity=high)=147[73log7374log54]=0.14829

H ( D | H u m i d i t y = n o r m a l ) = 7 14 [ − 6 7 log ⁡ 6 7 − 1 7 log ⁡ 1 7 ] = 0.08906 H\left( D \middle| Humidity = normal \right) = \frac{7}{14}\left\lbrack {- \frac{6}{7}{\log\frac{6}{7}} - \frac{1}{7}{\log\frac{1}{7}}} \right\rbrack = 0.08906 H(DHumidity=normal)=147[76log7671log71]=0.08906

计算Humidity的信息增益:
g ( D , H u m i d i t y ) = 0.28305 − 0.14829 − 0.08906 = 0.0457 \mathbf{g}\left( {\mathbf{D},\mathbf{H}\mathbf{u}\mathbf{m}\mathbf{i}\mathbf{d}\mathbf{i}\mathbf{t}\mathbf{y}} \right) = 0.28305 - 0.14829 - 0.08906 = 0.0457 g(D,Humidity)=0.283050.148290.08906=0.0457

计算Windy的条件熵:
H ( D | W i n d y = F A L S E ) = 8 14 [ − 2 8 log ⁡ 2 8 − 6 8 log ⁡ 6 8 ] = 0.13955 H\left( D \middle| Windy = FALSE \right) = \frac{8}{14}\left\lbrack {- \frac{2}{8}{\log\frac{2}{8}} - \frac{6}{8}{\log\frac{6}{8}}} \right\rbrack = 0.13955 H(DWindy=FALSE)=148[82log8286log86]=0.13955

H ( D | W i n d y = T R U E ) = 6 14 [ − 3 6 log ⁡ 3 6 − 3 6 log ⁡ 3 6 ] = 0.12901 H\left( D \middle| Windy = TRUE \right) = \frac{6}{14}\left\lbrack {- \frac{3}{6}{\log\frac{3}{6}} - \frac{3}{6}{\log\frac{3}{6}}} \right\rbrack = 0.12901 H(DWindy=TRUE)=146[63log6363log63]=0.12901

计算Windy的信息增益
g ( D , W i n d y ) = 0.28305 − 0.13955 − 0.12901 = 0.01449 \mathbf{g}\left( {\mathbf{D},\mathbf{W}\mathbf{i}\mathbf{n}\mathbf{d}\mathbf{y}} \right) = 0.28305 - 0.13955 - 0.12901 = 0.01449 g(D,Windy)=0.283050.139550.12901=0.01449
计算Temperature的条件熵:
H ( D | T e m p e r a t u r e = h o t ) = 4 14 [ − 2 4 log ⁡ 2 4 − 2 4 log ⁡ 2 4 ] = 0.08601 H\left( D \middle| Temperature = hot \right) = \frac{4}{14}\left\lbrack {- \frac{2}{4}{\log\frac{2}{4}} - \frac{2}{4}{\log\frac{2}{4}}} \right\rbrack = 0.08601 H(DTemperature=hot)=144[42log4242log42]=0.08601
H ( D | T e m p e r a t u r e = m i l d ) = 6 14 [ − 2 6 log ⁡ 2 6 − 4 6 log ⁡ 4 6 ] = 0.11847 H\left( D \middle| Temperature = mild \right) = \frac{6}{14}\left\lbrack {- \frac{2}{6}{\log\frac{2}{6}} - \frac{4}{6}{\log\frac{4}{6}}} \right\rbrack = 0.11847 H(DTemperature=mild)=146[62log6264log64]=0.11847
H ( D | T e m p e r a t u r e = c o o l ) = 6 14 [ − 2 6 log ⁡ 2 6 − 4 6 log ⁡ 4 6 ] = 0.06978 H\left( D \middle| Temperature = cool \right) = \frac{6}{14}\left\lbrack {- \frac{2}{6}{\log\frac{2}{6}} - \frac{4}{6}{\log\frac{4}{6}}} \right\rbrack = 0.06978 H(DTemperature=cool)=146[62log6264log64]=0.06978
计算Temperature的信息增益:
g ( D , T e m p e r a t u r e ) = 0.28305 − 0.08601 − 0.11847 − 0.06978 = 0.00879 \mathbf{g}\left( \mathbf{D},\mathbf{T}\mathbf{e}\mathbf{m}\mathbf{p}\mathbf{e}\mathbf{r}\mathbf{a}\mathbf{t}\mathbf{u}\mathbf{r}\mathbf{e} \right) = 0.28305 - 0.08601 - 0.11847 - 0.06978 = 0.00879 g(D,Temperature)=0.283050.086010.118470.06978=0.00879

综上,Outlook的信息增益最大,所以选Outlook作为划分特征。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/51016.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

iOS - 解压ipa包中的Assert.car文件

项目在 Archive 打包后,生成ipa包 将 xxx.ipa文件修改为zip后缀即 xxx.zip ,然后再双击解压,会生成一个 Payload 文件夹,里面一个文件 如下图: 然后显示改文件的包内容: 解压 Assets.car 文件的方式&…

Appium+python自动化(二十二)- 控件坐标获取(超详解)

简介 有些小伙伴或者是童鞋可能会好奇会问上一篇中的那个monkey脚本里的坐标点是如何获取的,不是自己随便蒙的猜的,或者是自己用目光或者是尺子量出来的吧,答案当然是:NO。获取控件坐标点的方式这里宏哥给小伙伴们分享和讲解三种方…

C#时间轴曲线图形编辑器开发2-核心功能实现

目录 三、关键帧编辑 1、新建Winform工程 (1)界面布局 (2)全局变量 2、关键帧添加和删除 (1)鼠标在曲线上识别 (2)键盘按键按下捕捉 (3)关键帧添加、删…

全面适配 | 走近openGauss数据库+鲲鹏欧拉操作系统

引入 全面适配 | openEuler操作系统 openGauss数据库 开篇 1、openEuler欧拉操作系统 百度百科:openEuler是覆盖全场景的创新平台,在引领内核创新,夯实云化基座的基础上,面向计算架构互联总线、存储介质发展新趋势,…

某渣渣平台APP登录

准备 APP有壳----360的好像是,懒得回头再看了加密参数sign、password 过程就略过吧!此处只展示结果

win10 hadoop报错 unable to load native-hadoop library

win10 安装hadoop执行hdfs -namenode format 和运行hadoop的start-all报错 unable to load native-hadoop library 验证: hadoop checknative -a 这个命令返回都是false是错的 返回下图是正确的 winutils: true D:\soft\hadoop-3.0.0\bin\winutils.exe Native li…

STM32MP157驱动开发——按键驱动(定时器)

内核函数 定时器涉及函数参考内核源码:include\linux\timer.h 给定时器的各个参数赋值: setup_timer(struct timer_list * timer, void (*function)(unsigned long),unsigned long data):设置定时器:主要是初始化 timer_list 结…

CentOS7系统Nvidia Docker容器基于TensorFlow2.12测试GPU

CentOS7系统Nvidia Docker容器基于TensorFlow1.15测试GPU 参考我的另一篇博客 1. 安装NVIDIA-Docker的Tensorflow2.12.0版本 1. 版本依赖对应关系:从源代码构建 | TensorFlow GPU 版本Python 版本编译器构建工具cuDNNCUDAtensorflow-2.6.03.6-3.9GCC 7.3.1Ba…

F5 LTM 知识点和实验 4-持久化

第四章:持久化 持久化: 大多数应用都是有状态的,比如,使用一个购物网站,最重要的是用户在放入一个商品之后,刷新网页要能继续看到购物车里的东西,这就需要请求报文发到同一个后端服务器上,持久化就能完成这个功能。 持久化支持一下几种场景: 源地址目标地址SSLSIPH…

最后的组合:K8s 1.24 基于 Hekiti 实现 GlusterFS 动态存储管理实践

前言 知识点 定级:入门级GlusterFS 和 Heketi 简介GlusterFS 安装部署Heketi 安装部署Kubernetes 命令行对接 GlusterFS 实战服务器配置(架构 1:1 复刻小规模生产环境,配置略有不同) 主机名IPCPU内存系统盘数据盘用途ks-master-0192.168.9.912450100…

基于Open3D的点云处理0-测试所用数据下载

地址:github 20220201-data 20220301-data

Flutter 使用texture_rgba_renderer实现桌面端渲染视频

Flutter视频渲染系列 第一章 Android使用Texture渲染视频 第二章 Windows使用Texture渲染视频 第三章 Linux使用Texture渲染视频 第四章 全平台FFICustomPainter渲染视频 第五章 Windows使用Native窗口渲染视频 第六章 桌面端使用texture_rgba_renderer渲染视频(本…

认识什么是架构

目录 ​编辑 一、架构是什么 1.1 系统与子系统 1.1.1 系统 1.1.1.1 关联 1.1.1.2 规则 1.1.1.3 能力 1.1.2 子系统 1.2 模块与组件 1.2.1 模块 1.2.2 组件 1.3 框架与架构 1.3.1 框架 1.3.2 架构 1.3.2.1 架构定义 1.3.2.2 架构组成 1.3.2.2.1 要素 1.3.2.2.2 结构 1.3.2…

苹果电脑系统优化工具:Ventura Cache Cleaner for mac

Ventura Cache Cleaner for Mac是一款专门为苹果电脑开发的系统优化工具,旨在帮助用户清理和优化Mac电脑,提高系统性能和速度。该软件由美国公司Northern Softworks开发,已经推出了多个版本,适用于不同版本的Mac操作系统。 Ventu…

在Ubuntu 系统下开发GUI,用哪种开发工具比较好?

在Ubuntu系统下开发GUI,你可以考虑使用以下几种开发工具:Qt Creator:Qt Creator是一个跨平台的集成开发环境,专门用于开发基于Qt框架的应用程序。它提供了丰富的图形界面设计工具和代码编辑器,支持C和QML编程。Qt Crea…

REST API的基础:HTTP

在本文中,我们将深入探讨万维网数据通信的基础 - HTTP。 什么是超文本? HTTP(超文本传输协议)的命名源于“超文本”。 那么,什么是超文本? 想象一下由超链接组成的文本、图像和视频的混合物。这些链接充当我…

【2023.7.29】本文用于自己写文章时查看Markdown编辑器语法

这里写自定义目录标题 欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants 创建一个自定义列表如何创建一个…

texshop mac中文版-TeXShop for Mac(Latex编辑预览工具)

texshop for mac是一款可以在苹果电脑MAC OS平台上使用的非常不错的Mac应用软件,texshop for mac是一个非常有用的工具,广泛使用在数学,计算机科学,物理学,经济学等领域的合作,这些程序的标准tetex分布特产…

产品经理如何平衡用户体验与商业价值?

近期负责前端产品设计工作的小李忍不住抱怨:公司总是要求客户第一,实现客户良好体验,但在实际操作过程中,面向用户 体验提升的需求,研发资源计划几乎很难排上,资源都放在公司根据业务价值排序的需求…

Verilog语法学习——LV5_位拆分与运算

LV5_位拆分与运算 题目来源于牛客网 [牛客网在线编程_Verilog篇_Verilog快速入门 (nowcoder.com)](https://www.nowcoder.com/exam/oj?page1&tabVerilog篇&topicId301) 题目 题目描述: 现在输入了一个压缩的16位数据,其实际上包含了四个数据…