diff --git a/Deep Learning/README.md b/Deep Learning/README.md
index 2a9d4b4..758b8e9 100644
--- a/Deep Learning/README.md
+++ b/Deep Learning/README.md
@@ -16,6 +16,5 @@
| 深度学习 | [15. 深度学习的优化方法](https://github.com/NLP-LOVE/ML-NLP/tree/master/Deep%20Learning/15.%20DL%20Optimizer) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
-> 欢迎大家加入!共同完善此项目!NLP学习QQ2群【207576902】
-
+> 欢迎大家加入!共同完善此项目!
diff --git a/Machine Learning/3.2 GBDT/3.2 GBDT.md b/Machine Learning/3.2 GBDT/3.2 GBDT.md
index 41d75f5..ffccaaa 100644
--- a/Machine Learning/3.2 GBDT/3.2 GBDT.md
+++ b/Machine Learning/3.2 GBDT/3.2 GBDT.md
@@ -81,7 +81,7 @@ GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值
1. 预测阶段的计算速度快,树与树之间可并行化计算。
2. 在分布稠密的数据集上,泛化能力和表达能力都很好,这使得GBDT在Kaggle的众多竞赛中,经常名列榜首。
-3. 采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自动发现特征间的高阶关系。
+3. 采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自动发现特征间的高阶关系,并且也不需要对数据进行特殊的预处理如归一化等。
### 3.2 局限性
@@ -93,11 +93,11 @@ GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值
**相同点**:
-- 都是由多棵树组成,最终的结果都是由多棵树一起决定。
-- RF和GBDT在使用CART树时,可以是分类树或者回归树。
+都是由多棵树组成,最终的结果都是由多棵树一起决定。
**不同点**:
+- 组成随机森林的树可以分类树也可以是回归树,而GBDT只由回归树组成
- 组成随机森林的树可以并行生成,而GBDT是串行生成
- 随机森林的结果是多数表决表决的,而GBDT则是多棵树累加之和
- 随机森林对异常值不敏感,而GBDT对异常值比较敏感
diff --git a/Machine Learning/9. KNN/README.md b/Machine Learning/9. KNN/README.md
index 9ae0dc8..13d65e0 100644
--- a/Machine Learning/9. KNN/README.md
+++ b/Machine Learning/9. KNN/README.md
@@ -77,7 +77,7 @@
=max_i(|p_i-q_i|))
- 这也等于以下Lp度量的极值: ,因此切比雪夫距离也称为L∞度量。
+ 这也等于以下Lp度量的极值: ^{1/k}),因此切比雪夫距离也称为L∞度量。
以数学的观点来看,切比雪夫距离是由一致范数(uniform norm)(或称为上确界范数)所衍生的度量,也是超凸度量(injective metric space)的一种。
diff --git a/Machine Learning/README.md b/Machine Learning/README.md
index 24cd0c9..c8a01f3 100644
--- a/Machine Learning/README.md
+++ b/Machine Learning/README.md
@@ -25,5 +25,4 @@
-> 欢迎大家加入!共同完善此项目!NLP学习QQ2群【207576902】
-
+> 欢迎大家加入!共同完善此项目!
diff --git a/NLP/16.6 Attention/README.md b/NLP/16.6 Attention/README.md
index 80ae363..d7d0d37 100644
--- a/NLP/16.6 Attention/README.md
+++ b/NLP/16.6 Attention/README.md
@@ -1,16 +1,10 @@
## 目录
- [1. 什么是Attention机制](#1-什么是attention机制)
-- [2. 编解码器中的Attention](#2-编解码器中的attention)
- - [2.1 计算背景变量](#21-计算背景变量)
- - [2.2 更新隐藏状态](#22-更新隐藏状态)
-- [3. Attention本质](#3-attention本质)
- - [3.1 机器翻译说明Attention](#31-机器翻译说明attention)
- - [3.2 注意力分配概率计算](#32-注意力分配概率计算)
- - [3.3 Attention的物理含义](#33-attention的物理含义)
-- [4. Self-Attention模型](#4-self-attention模型)
-- [5. 发展](#5-发展)
-- [6. 代码实现](#6-代码实现)
-- [7. 参考文献](#7-参考文献)
+- [2. 计算背景变量](#2-计算背景变量)
+- [3. 更新隐藏状态](#3-更新隐藏状态)
+- [4. 发展](#4-发展)
+- [5. 代码实现](#5-代码实现)
+- [6. 参考文献](#6-参考文献)
## 1. 什么是Attention机制
@@ -28,9 +22,7 @@
-## 2. 编解码器中的Attention
-
-### 2.1 计算背景变量
+## 2. 计算背景变量
我们先描述第⼀个关键点,即计算背景变量。下图描绘了注意⼒机制如何为解码器在时间步 2 计算背景变量。
@@ -57,7 +49,7 @@
-### 2.2 更新隐藏状态
+## 3. 更新隐藏状态
现在我们描述第⼆个关键点,即更新隐藏状态。以⻔控循环单元为例,在解码器中我们可以对⻔控循环单元(GRU)中⻔控循环单元的设计稍作修改,从而变换上⼀时间步 t′−1 的输出 yt′−1、隐藏状态 st′−1 和当前时间步t′ 的含注意⼒机制的背景变量 ct′。解码器在时间步: math:t’ 的隐藏状态为:
@@ -71,89 +63,13 @@
-## 3. Attention本质
-
-### 3.1 机器翻译说明Attention
-
-本节先以机器翻译作为例子讲解最常见的Soft Attention模型的基本原理,之后抛离Encoder-Decoder框架抽象出了注意力机制的本质思想。
-
-如果拿机器翻译来解释这个Encoder-Decoder框架更好理解,比如输入的是英文句子:Tom chase Jerry,Encoder-Decoder框架逐步生成中文单词:“汤姆”,“追逐”,“杰瑞”。
-
-在翻译“杰瑞”这个中文单词的时候,模型里面的每个英文单词对于翻译目标单词“杰瑞”贡献是相同的,很明显这里不太合理,**显然“Jerry”对于翻译成“杰瑞”更重要,但是模型是无法体现这一点的,这就是为何说它没有引入注意力的原因。**
-
-没有引入注意力的模型在输入句子比较短的时候问题不大,但是如果输入句子比较长,此时所有语义完全通过一个中间语义向量来表示,单词自身的信息已经消失,可想而知会丢失很多细节信息,这也是为何要引入注意力模型的重要原因。
-
-上面的例子中,如果引入Attention模型的话,应该在翻译“杰瑞”的时候,体现出英文单词对于翻译当前中文单词不同的影响程度,比如给出类似下面一个概率分布值:
-
-(Tom,0.3)(Chase,0.2) (Jerry,0.5)
-
-**每个英文单词的概率代表了翻译当前单词“杰瑞”时,注意力分配模型分配给不同英文单词的注意力大小。**这对于正确翻译目标语单词肯定是有帮助的,因为引入了新的信息。
-
-同理,目标句子中的每个单词都应该学会其对应的源语句子中单词的注意力分配概率信息。这意味着在生成每个单词yi的时候,原先都是相同的中间语义表示C会被替换成根据当前生成单词而不断变化的Ci。理解Attention模型的关键就是这里,即由固定的中间语义表示C换成了根据当前输出单词来调整成加入注意力模型的变化的Ci。增加了注意力模型的Encoder-Decoder框架理解起来如下图所示。
-
-
-
-每个Ci可能对应着不同的源语句子单词的注意力分配概率分布,比如对于上面的英汉翻译来说,其对应的信息可能如下:
-
-
-
-其中,f2函数代表Encoder对输入英文单词的某种变换函数,比如如果Encoder是用的RNN模型的话,这个f2函数的结果往往是某个时刻输入xi后隐层节点的状态值;g代表Encoder根据单词的中间表示合成整个句子中间语义表示的变换函数,一般的做法中,g函数就是对构成元素加权求和,即下列公式:
-
-
-
-其中,Lx代表输入句子Source的长度,aij代表在Target输出第i个单词时Source输入句子中第j个单词的注意力分配系数,而hj则是Source输入句子中第j个单词的语义编码。假设下标i就是上面例子所说的“ 汤姆” ,那么Lx就是3,h1=f(“Tom”),h2=f(“Chase”),h3=f(“Jerry”)分别是输入句子每个单词的语义编码,对应的注意力模型权值则分别是0.6,0.2,0.2,所以g函数本质上就是个加权求和函数。
-
-
-
-### 3.2 注意力分配概率计算
-
-这里还有一个问题:生成目标句子某个单词,比如“汤姆”的时候,如何知道Attention模型所需要的输入句子单词注意力分配概率分布值呢?就是说“汤姆”对应的输入句子Source中各个单词的概率分布:(Tom,0.6)(Chase,0.2) (Jerry,0.2) 是如何得到的呢?
-
-对于采用RNN的Decoder来说,在时刻i,如果要生成yi单词,我们是可以知道Target在生成Yi之前的时刻i-1时,隐层节点i-1时刻的输出值Hi-1的,而我们的目的是要计算生成Yi时输入句子中的单词“Tom”、“Chase”、“Jerry”对Yi来说的注意力分配概率分布,那么可以用Target输出句子i-1时刻的隐层节点状态Hi-1去一一和输入句子Source中每个单词对应的RNN隐层节点状态hj进行对比,即通过函数F(hj,Hi-1)来获得目标单词yi和每个输入单词对应的对齐可能性,这个F函数在不同论文里可能会采取不同的方法,然后函数F的输出经过Softmax进行归一化就得到了符合概率分布取值区间的注意力分配概率分布数值。
-
-
-
-
-
-### 3.3 Attention的物理含义
-
-一般在自然语言处理应用里会把Attention模型看作是输出Target句子中某个单词和输入Source句子每个单词的对齐模型,这是非常有道理的。
-
-**目标句子生成的每个单词对应输入句子单词的概率分布可以理解为输入句子单词和这个目标生成单词的对齐概率,**这在机器翻译语境下是非常直观的:传统的统计机器翻译一般在做的过程中会专门有一个短语对齐的步骤,而注意力模型其实起的是相同的作用。
-
-如果把Attention机制从上文讲述例子中的Encoder-Decoder框架中剥离,并进一步做抽象,可以更容易看懂Attention机制的本质思想。
-
-
-
-我们可以这样来看待Attention机制(参考图9):将Source中的构成元素想象成是由一系列的数据对构成,此时给定Target中的某个元素Query,通过计算Query和各个Key的相似性或者相关性,得到每个Key对应Value的权重系数,然后对Value进行加权求和,即得到了最终的Attention数值。所以本质上Attention机制是对Source中元素的Value值进行加权求和,而Query和Key用来计算对应Value的权重系数。即可以将其本质思想改写为如下公式:
-
-=\sum_{i=1}^{L_x}Similarity(Query,key_i)*Value_i)
-
-其中,Lx=||Source||代表Source的长度,公式含义即如上所述。上文所举的机器翻译的例子里,因为在计算Attention的过程中,Source中的Key和Value合二为一,指向的是同一个东西,也即输入句子中每个单词对应的语义编码,所以可能不容易看出这种能够体现本质思想的结构。
-
-至于Attention机制的具体计算过程,如果对目前大多数方法进行抽象的话,可以将其归纳为两个过程:第一个过程是根据Query和Key计算权重系数,第二个过程根据权重系数对Value进行加权求和。而第一个过程又可以细分为两个阶段:第一个阶段根据Query和Key计算两者的相似性或者相关性;第二个阶段对第一阶段的原始分值进行归一化处理;
-
-
-
-## 4. Self-Attention模型
-
-Self Attention也经常被称为intra Attention(内部Attention),最近一年也获得了比较广泛的使用,比如Google最新的机器翻译模型内部大量采用了Self Attention模型。
-
-在一般任务的Encoder-Decoder框架中,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attention机制发生在Target的元素Query和Source中的所有元素之间。**而Self Attention顾名思义,指的不是Target和Source之间的Attention机制,而是Source内部元素之间或者Target内部元素之间发生的Attention机制,也可以理解为Target=Source这种特殊情况下的注意力计算机制。**其具体计算过程是一样的,只是计算对象发生了变化而已,所以此处不再赘述其计算过程细节。
-
-很明显,引入Self Attention后会更容易捕获句子中长距离的相互依赖的特征,因为如果是RNN或者LSTM,需要依次序序列计算,对于远距离的相互依赖的特征,要经过若干时间步步骤的信息累积才能将两者联系起来,而距离越远,有效捕获的可能性越小。
-
-但是Self Attention在计算过程中会直接将句子中任意两个单词的联系通过一个计算步骤直接联系起来,所以远距离依赖特征之间的距离被极大缩短,有利于有效地利用这些特征。除此外,Self Attention对于增加计算的并行性也有直接帮助作用。这是为何Self Attention逐渐被广泛使用的主要原因。
-
-
-
-## 5. 发展
+## 4. 发展
本质上,注意⼒机制能够为表征中较有价值的部分分配较多的计算资源。这个有趣的想法⾃提出后得到了快速发展,特别是启发了依靠注意⼒机制来编码输⼊序列并解码出输出序列的**变换器(Transformer)模型**的设计。变换器抛弃了卷积神经⽹络和循环神经⽹络的架构。它在计算效率上⽐基于循环神经⽹络的编码器—解码器模型通常更具明显优势。含注意⼒机制的变换器的编码结构在后来的**BERT预训练模型**中得以应⽤并令后者⼤放异彩:微调后的模型在多达11项⾃然语⾔处理任务中取得了当时最先进的结果。不久后,同样是基于变换器设计的**GPT-2模型**于新收集的语料数据集预训练后,在7个未参与训练的语⾔模型数据集上均取得了当时最先进的结果。除了⾃然语⾔处理领域,注意⼒机制还被⼴泛⽤于图像分类、⾃动图像描述、唇语解读以及语⾳识别。
-## 6. 代码实现
+## 5. 代码实现
**注意力模型实现中英文机器翻译**
@@ -167,12 +83,10 @@ Self Attention也经常被称为intra Attention(内部Attention),最近一
-## 7. 参考文献
+## 6. 参考文献
[动手学深度学习](https://www.lanzous.com/i5lqo4f)
-[注意力机制的基本思想和实现原理](https://blog.csdn.net/hpulfc/article/details/80448570)
-
------
diff --git a/NLP/16.7 Transformer/README.md b/NLP/16.7 Transformer/README.md
deleted file mode 100644
index bcd15c9..0000000
--- a/NLP/16.7 Transformer/README.md
+++ /dev/null
@@ -1,245 +0,0 @@
-## 目录
-- [1. 什么是Transformer](#1-什么是transformer)
-- [2. Transformer结构](#2-transformer结构)
- - [2.1 总体结构](#21-总体结构)
- - [2.2 Encoder层结构](#22-encoder层结构)
- - [2.3 Decoder层结构](#23-decoder层结构)
- - [2.4 动态流程图](#24-动态流程图)
-- [3. Transformer为什么需要进行Multi-head Attention](#3-transformer为什么需要进行multi-head-attention)
-- [4. Transformer相比于RNN/LSTM,有什么优势?为什么?](#4-transformer相比于rnnlstm有什么优势为什么)
-- [5. 为什么说Transformer可以代替seq2seq?](#5-为什么说transformer可以代替seq2seq)
-- [6. 代码实现](#6-代码实现)
-- [7. 参考文献](#7-参考文献)
-
-## 1. 什么是Transformer
-
-**[《Attention Is All You Need》](https://arxiv.org/pdf/1706.03762.pdf)是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型,叫 Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN**。目前大热的Bert就是基于Transformer构建的,这个模型广泛应用于NLP领域,例如机器翻译,问答系统,文本摘要和语音识别等等方向。
-
-
-
-## 2. Transformer结构
-
-### 2.1 总体结构
-
-Transformer的结构和Attention模型一样,Transformer模型中也采用了 encoer-decoder 架构。但其结构相比于Attention更加复杂,论文中encoder层由6个encoder堆叠在一起,decoder层也一样。
-
-不了解Attention模型的,可以回顾之前的文章:[Attention](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.6%20Attention)
-
-
-
-每一个encoder和decoder的内部结构如下图:
-
-
-
-- encoder,包含两层,一个self-attention层和一个前馈神经网络,self-attention能帮助当前节点不仅仅只关注当前的词,从而能获取到上下文的语义。
-- decoder也包含encoder提到的两层网络,但是在这两层中间还有一层attention层,帮助当前节点获取到当前需要关注的重点内容。
-
-
-
-### 2.2 Encoder层结构
-
-首先,模型需要对输入的数据进行一个embedding操作,也可以理解为类似w2c的操作,enmbedding结束之后,输入到encoder层,self-attention处理完数据后把数据送给前馈神经网络,前馈神经网络的计算可以并行,得到的输出会输入到下一个encoder。
-
-
-
-
-
-#### 2.2.1 Positional Encoding
-
-transformer模型中缺少一种解释输入序列中单词顺序的方法,它跟序列模型还不不一样。为了处理这个问题,transformer给encoder层和decoder层的输入添加了一个额外的向量Positional Encoding,维度和embedding的维度一样,这个向量采用了一种很独特的方法来让模型学习到这个值,这个向量能决定当前词的位置,或者说在一个句子中不同的词之间的距离。这个位置向量的具体计算方法有很多种,论文中的计算方法如下:
-
-=sin(\frac{pos}{10000^{\frac{2i}{d_{model}}}}))
-
-=cos(\frac{pos}{10000^{\frac{2i}{d_{model}}}}))
-
-其中pos是指当前词在句子中的位置,i是指向量中每个值的index,可以看出,在**偶数位置,使用正弦编码,在奇数位置,使用余弦编码**。
-
-最后把这个Positional Encoding与embedding的值相加,作为输入送到下一层。
-
-
-
-
-
-#### 2.2.2 Self-Attention
-
-接下来我们详细看一下self-attention,其思想和attention类似,但是self-attention是Transformer用来将其他相关单词的“理解”转换成我们正在处理的单词的一种思路,我们看个例子:
-
-The animal didn't cross the street because it was too tired
-
-这里的 it 到底代表的是 animal 还是 street 呢,对于我们来说能很简单的判断出来,但是对于机器来说,是很难判断的,self-attention就能够让机器把 it 和 animal 联系起来,接下来我们看下详细的处理过程。
-
-1. 首先,self-attention会计算出三个新的向量,在论文中,向量的维度是512维,我们把这三个向量分别称为Query、Key、Value,这三个向量是用embedding向量与一个矩阵相乘得到的结果,这个矩阵是随机初始化的,维度为(64,512)注意第二个维度需要和embedding的维度一样,其值在BP的过程中会一直进行更新,得到的这三个向量的维度是64。
-
- 
-
-2. 计算self-attention的分数值,该分数值决定了当我们在某个位置encode一个词时,对输入句子的其他部分的关注程度。这个分数值的计算方法是Query与Key做点成,以下图为例,首先我们需要针对Thinking这个词,计算出其他词对于该词的一个分数值,首先是针对于自己本身即q1·k1,然后是针对于第二个词即q1·k2。
-
- 
-
-3. 接下来,把点成的结果除以一个常数,这里我们除以8,这个值一般是采用上文提到的矩阵的第一个维度的开方即64的开方8,当然也可以选择其他的值,然后把得到的结果做一个softmax的计算。得到的结果即是每个词对于当前位置的词的相关性大小,当然,当前位置的词相关性肯定会会很大。
-
- 
-
-4. 下一步就是把Value和softmax得到的值进行相乘,并相加,得到的结果即是self-attetion在当前节点的值。
-
- 
-
-在实际的应用场景,为了提高计算速度,我们采用的是矩阵的方式,直接计算出Query, Key, Value的矩阵,然后把embedding的值与三个矩阵直接相乘,把得到的新矩阵 Q 与 K 相乘,乘以一个常数,做softmax操作,最后乘上 V 矩阵。
-
-**这种通过 query 和 key 的相似性程度来确定 value 的权重分布的方法被称为scaled dot-product attention。**
-
-
-
-
-
-
-
-#### 2.2.3 Multi-Headed Attention
-
-这篇论文更牛逼的地方是给self-attention加入了另外一个机制,被称为“multi-headed” attention,该机制理解起来很简单,**就是说不仅仅只初始化一组Q、K、V的矩阵,而是初始化多组,tranformer是使用了8组**,所以最后得到的结果是8个矩阵。
-
-
-
-
-
-
-
-#### 2.2.4 Layer normalization
-
-在transformer中,每一个子层(self-attetion,Feed Forward Neural Network)之后都会接一个残缺模块,并且有一个Layer normalization。
-
-
-
-Normalization有很多种,但是它们都有一个共同的目的,那就是把输入转化成均值为0方差为1的数据。我们在把数据送入激活函数之前进行normalization(归一化),因为我们不希望输入数据落在激活函数的饱和区。
-
-**Batch Normalization**
-
-BN的主要思想就是:在每一层的每一批数据上进行归一化。我们可能会对输入数据进行归一化,但是经过该网络层的作用后,我们的数据已经不再是归一化的了。随着这种情况的发展,数据的偏差越来越大,我的反向传播需要考虑到这些大的偏差,这就迫使我们只能使用较小的学习率来防止梯度消失或者梯度爆炸。**BN的具体做法就是对每一小批数据,在批这个方向上做归一化。**
-
-**Layer normalization**
-
-它也是归一化数据的一种方式,不过**LN 是在每一个样本上计算均值和方差**,而不是BN那种在批方向计算均值和方差!公式如下:
-
-=\alpha*\frac{x_i-\mu_L}{\sqrt{\sigma_L^2+\varepsilon}}+\beta)
-
-
-
-
-
-#### 2.2.5 Feed Forward Neural Network
-
-这给我们留下了一个小的挑战,前馈神经网络没法输入 8 个矩阵呀,这该怎么办呢?所以我们需要一种方式,把 8 个矩阵降为 1 个,首先,我们把 8 个矩阵连在一起,这样会得到一个大的矩阵,再随机初始化一个矩阵和这个组合好的矩阵相乘,最后得到一个最终的矩阵。
-
-
-
-
-
-### 2.3 Decoder层结构
-
-根据上面的总体结构图可以看出,decoder部分其实和encoder部分大同小异,刚开始也是先添加一个位置向量Positional Encoding,方法和 2.2.1 节一样,接下来接的是masked mutil-head attetion,这里的mask也是transformer一个很关键的技术,下面我们会进行一一介绍。
-
-其余的层结构与Encoder一样,请参考Encoder层结构。
-
-
-
-#### 2.3.1 masked mutil-head attetion
-
-**mask 表示掩码,它对某些值进行掩盖,使其在参数更新时不产生效果**。Transformer 模型里面涉及两种 mask,分别是 padding mask 和 sequence mask。其中,padding mask 在所有的 scaled dot-product attention 里面都需要用到,而 sequence mask 只有在 decoder 的 self-attention 里面用到。
-
-1. **padding mask**
-
- 什么是 padding mask 呢?因为每个批次输入序列长度是不一样的也就是说,我们要对输入序列进行对齐。具体来说,就是给在较短的序列后面填充 0。但是如果输入的序列太长,则是截取左边的内容,把多余的直接舍弃。因为这些填充的位置,其实是没什么意义的,所以我们的attention机制不应该把注意力放在这些位置上,所以我们需要进行一些处理。
-
- 具体的做法是,把这些位置的值加上一个非常大的负数(负无穷),这样的话,经过 softmax,这些位置的概率就会接近0!
-
- 而我们的 padding mask 实际上是一个张量,每个值都是一个Boolean,值为 false 的地方就是我们要进行处理的地方。
-
-2. **Sequence mask**
-
- 文章前面也提到,sequence mask 是为了使得 decoder 不能看见未来的信息。也就是对于一个序列,在 time_step 为 t 的时刻,我们的解码输出应该只能依赖于 t 时刻之前的输出,而不能依赖 t 之后的输出。因此我们需要想一个办法,把 t 之后的信息给隐藏起来。
-
- 那么具体怎么做呢?也很简单:**产生一个上三角矩阵,上三角的值全为0。把这个矩阵作用在每一个序列上,就可以达到我们的目的**。
-
-- 对于 decoder 的 self-attention,里面使用到的 scaled dot-product attention,同时需要padding mask 和 sequence mask 作为 attn_mask,具体实现就是两个mask相加作为attn_mask。
-- 其他情况,attn_mask 一律等于 padding mask。
-
-
-
-#### 2.3.2 Output层
-
-当decoder层全部执行完毕后,怎么把得到的向量映射为我们需要的词呢,很简单,只需要在结尾再添加一个全连接层和softmax层,假如我们的词典是1w个词,那最终softmax会输入1w个词的概率,概率值最大的对应的词就是我们最终的结果。
-
-
-
-### 2.4 动态流程图
-
-编码器通过处理输入序列开启工作。顶端编码器的输出之后会变转化为一个包含向量K(键向量)和V(值向量)的注意力向量集 ,**这是并行化操作**。这些向量将被每个解码器用于自身的“编码-解码注意力层”,而这些层可以帮助解码器关注输入序列哪些位置合适:
-
-
-
-在完成编码阶段后,则开始解码阶段。解码阶段的每个步骤都会输出一个输出序列(在这个例子里,是英语翻译的句子)的元素。
-
-接下来的步骤重复了这个过程,直到到达一个特殊的终止符号,它表示transformer的解码器已经完成了它的输出。每个步骤的输出在下一个时间步被提供给底端解码器,并且就像编码器之前做的那样,这些解码器会输出它们的解码结果 。
-
-[解码器动态图请点击](https://julyedu-img.oss-cn-beijing.aliyuncs.com/quesbase64156846899939997439.gif)
-
-
-
-## 3. Transformer为什么需要进行Multi-head Attention
-
-原论文中说到进行Multi-head Attention的原因是将模型分为多个头,形成多个子空间,可以让模型去关注不同方面的信息,最后再将各个方面的信息综合起来。其实直观上也可以想到,如果自己设计这样的一个模型,必然也不会只做一次attention,多次attention综合的结果至少能够起到增强模型的作用,也可以类比CNN中同时使用**多个卷积核**的作用,直观上讲,多头的注意力**有助于网络捕捉到更丰富的特征/信息**。
-
-
-
-## 4. Transformer相比于RNN/LSTM,有什么优势?为什么?
-
-1. RNN系列的模型,并行计算能力很差。RNN并行计算的问题就出在这里,因为 T 时刻的计算依赖 T-1 时刻的隐层计算结果,而 T-1 时刻的计算依赖 T-2 时刻的隐层计算结果,如此下去就形成了所谓的序列依赖关系。
-
-2. Transformer的特征抽取能力比RNN系列的模型要好。
-
- 具体实验对比可以参考:[放弃幻想,全面拥抱Transformer:自然语言处理三大特征抽取器(CNN/RNN/TF)比较](https://zhuanlan.zhihu.com/p/54743941)
-
- 但是值得注意的是,并不是说Transformer就能够完全替代RNN系列的模型了,任何模型都有其适用范围,同样的,RNN系列模型在很多任务上还是首选,熟悉各种模型的内部原理,知其然且知其所以然,才能遇到新任务时,快速分析这时候该用什么样的模型,该怎么做好。
-
-
-
-## 5. 为什么说Transformer可以代替seq2seq?
-
-**seq2seq缺点**:这里用代替这个词略显不妥当,seq2seq虽已老,但始终还是有其用武之地,seq2seq最大的问题在于**将Encoder端的所有信息压缩到一个固定长度的向量中**,并将其作为Decoder端首个隐藏状态的输入,来预测Decoder端第一个单词(token)的隐藏状态。在输入序列比较长的时候,这样做显然会损失Encoder端的很多信息,而且这样一股脑的把该固定向量送入Decoder端,Decoder端不能够关注到其想要关注的信息。
-
-**Transformer优点**:transformer不但对seq2seq模型这两点缺点有了实质性的改进(多头交互式attention模块),而且还引入了self-attention模块,让源序列和目标序列首先“自关联”起来,这样的话,源序列和目标序列自身的embedding表示所蕴含的信息更加丰富,而且后续的FFN层也增强了模型的表达能力,并且Transformer并行计算的能力是远远超过seq2seq系列的模型,因此我认为这是transformer优于seq2seq模型的地方。
-
-
-
-## 6. 代码实现
-
-地址:[https://github.com/Kyubyong/transformer](https://github.com/Kyubyong/transformer)
-
-代码解读:[Transformer解析与tensorflow代码解读](https://www.cnblogs.com/zhouxiaosong/p/11032431.html)
-
-
-
-## 7. 参考文献
-
-- [Transformer模型详解](https://blog.csdn.net/u012526436/article/details/86295971)
-- [图解Transformer(完整版)](https://blog.csdn.net/longxinchen_ml/article/details/86533005)
-- [关于Transformer的若干问题整理记录](https://www.nowcoder.com/discuss/258321)
-
-
-
-------
-
-> 作者:[@mantchs](https://github.com/NLP-LOVE/ML-NLP)
->
-> GitHub:[https://github.com/NLP-LOVE/ML-NLP](https://github.com/NLP-LOVE/ML-NLP)
->
-> 欢迎大家加入讨论!共同完善此项目!群号:【541954936】
-
-
-
-
-
-
-
-
-
diff --git a/NLP/16.8 BERT/README.md b/NLP/16.8 BERT/README.md
deleted file mode 100644
index 77ab482..0000000
--- a/NLP/16.8 BERT/README.md
+++ /dev/null
@@ -1,241 +0,0 @@
-## 目录
-- [1. 什么是BERT](#1-什么是bert)
-- [2. 从Word Embedding到Bert模型的发展](#2-从word-embedding到bert模型的发展)
- - [2.1 图像的预训练](#21-图像的预训练)
- - [2.2 Word Embedding](#22-word-embedding)
- - [2.3 ELMO](#23-elmo)
- - [2.4 GPT](#24-gpt)
- - [2.5 BERT](#25-bert)
-- [3. BERT的评价](#3-bert的评价)
-- [4. 代码实现](#4-代码实现)
-- [5. 参考文献](#5-参考文献)
-
-## 1. 什么是BERT
-
-**BERT的全称是Bidirectional Encoder Representation from Transformers**,是Google2018年提出的预训练模型,即双向Transformer的Encoder,因为decoder是不能获要预测的信息的。模型的主要创新点都在pre-train方法上,即用了Masked LM和Next Sentence Prediction两种方法分别捕捉词语和句子级别的representation。
-
-Bert最近很火,应该是最近最火爆的AI进展,网上的评价很高,那么Bert值得这么高的评价吗?我个人判断是值得。那为什么会有这么高的评价呢?是因为它有重大的理论或者模型创新吗?其实并没有,从模型创新角度看一般,创新不算大。但是架不住效果太好了,基本刷新了很多NLP的任务的最好性能,有些任务还被刷爆了,这个才是关键。另外一点是Bert具备广泛的通用性,就是说绝大部分NLP任务都可以采用类似的两阶段模式直接去提升效果,这个第二关键。客观的说,把Bert当做最近两年NLP重大进展的集大成者更符合事实。
-
-
-
-## 2. 从Word Embedding到Bert模型的发展
-
-### 2.1 图像的预训练
-
-自从深度学习火起来后,预训练过程就是做图像或者视频领域的一种比较常规的做法,有比较长的历史了,而且这种做法很有效,能明显促进应用的效果。
-
-
-
-那么图像领域怎么做预训练呢,上图展示了这个过程,
-
-1. 我们设计好网络结构以后,对于图像来说一般是CNN的多层叠加网络结构,可以先用某个训练集合比如训练集合A或者训练集合B对这个网络进行预先训练,在A任务上或者B任务上学会网络参数,然后存起来以备后用。
-
-2. 假设我们面临第三个任务C,网络结构采取相同的网络结构,在比较浅的几层CNN结构,网络参数初始化的时候可以加载A任务或者B任务学习好的参数,其它CNN高层参数仍然随机初始化。
-
-3. 之后我们用C任务的训练数据来训练网络,此时有两种做法:
-
- **一种**是浅层加载的参数在训练C任务过程中不动,这种方法被称为“Frozen”;
-
- **另一种**是底层网络参数尽管被初始化了,在C任务训练过程中仍然随着训练的进程不断改变,这种一般叫“Fine-Tuning”,顾名思义,就是更好地把参数进行调整使得更适应当前的C任务。
-
-一般图像或者视频领域要做预训练一般都这么做。这样做的优点是:如果手头任务C的训练集合数据量较少的话,利用预训练出来的参数来训练任务C,加个预训练过程也能极大加快任务训练的收敛速度,所以这种预训练方式是老少皆宜的解决方案,另外疗效又好,所以在做图像处理领域很快就流行开来。
-
-**为什么预训练可行**
-
-对于层级的CNN结构来说,不同层级的神经元学习到了不同类型的图像特征,由底向上特征形成层级结构,所以预训练好的网络参数,尤其是底层的网络参数抽取出特征跟具体任务越无关,越具备任务的通用性,所以这是为何一般用底层预训练好的参数初始化新任务网络参数的原因。而高层特征跟任务关联较大,实际可以不用使用,或者采用Fine-tuning用新数据集合清洗掉高层无关的特征抽取器。
-
-
-
-### 2.2 Word Embedding
-
-
-
-神经网络语言模型(NNLM)的思路。先说训练过程。学习任务是输入某个句中单词 ![[公式]](https://www.zhihu.com/equation?tex=W_t=(Bert)) 前面句子的t-1个单词,要求网络正确预测单词Bert,即最大化:
-
-![[公式]](https://www.zhihu.com/equation?tex=++P%28W_t%3D%E2%80%9CBert%E2%80%9D%7CW_1%2CW_2%2C%E2%80%A6W_%28t-1%29%3B%CE%B8%29)
-
-前面任意单词 ![[公式]](https://www.zhihu.com/equation?tex=W_i) 用Onehot编码(比如:0001000)作为原始单词输入,之后乘以矩阵Q后获得向量 ![[公式]](https://www.zhihu.com/equation?tex=C%28W_i+%29) ,每个单词的 ![[公式]](https://www.zhihu.com/equation?tex=C%28W_i+%29) 拼接,上接隐层,然后接softmax去预测后面应该后续接哪个单词。这个 ![[公式]](https://www.zhihu.com/equation?tex=C%28W_i+%29) 是什么?这其实就是单词对应的Word Embedding值,那个矩阵Q包含V行,V代表词典大小,每一行内容代表对应单词的Word embedding值。只不过Q的内容也是网络参数,需要学习获得,训练刚开始用随机值初始化矩阵Q,当这个网络训练好之后,矩阵Q的内容被正确赋值,每一行代表一个单词对应的Word embedding值。所以你看,通过这个网络学习语言模型任务,这个网络不仅自己能够根据上文预测后接单词是什么,同时获得一个副产品,就是那个矩阵Q,这就是单词的Word Embedding。
-
-2013年最火的用语言模型做Word Embedding的工具是Word2Vec,后来又出了Glove,Word2Vec。对于这两个模型不熟悉的可以参考我之前的文章,这里不再赘述:
-
-- [Word2Vec](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.1%20Word%20Embedding)
-- [GloVe](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.3%20GloVe)
-
-上面这种模型做法就是18年之前NLP领域里面采用预训练的典型做法,之前说过,Word Embedding其实对于很多下游NLP任务是有帮助的,只是帮助没有大到闪瞎忘记戴墨镜的围观群众的双眼而已。那么新问题来了,为什么这样训练及使用Word Embedding的效果没有期待中那么好呢?答案很简单,因为Word Embedding有问题呗。这貌似是个比较弱智的答案,关键是Word Embedding存在什么问题?这其实是个好问题。
-
-**这片在Word Embedding头上笼罩了好几年的乌云是什么?是多义词问题。**我们知道,多义词是自然语言中经常出现的现象,也是语言灵活性和高效性的一种体现。多义词对Word Embedding来说有什么负面影响?如上图所示,比如多义词Bank,有两个常用含义,但是Word Embedding在对bank这个单词进行编码的时候,是区分不开这两个含义的,因为它们尽管上下文环境中出现的单词不同,但是在用语言模型训练的时候,不论什么上下文的句子经过word2vec,都是预测相同的单词bank,而同一个单词占的是同一行的参数空间,这导致两种不同的上下文信息都会编码到相同的word embedding空间里去。所以word embedding无法区分多义词的不同语义,这就是它的一个比较严重的问题。
-
-有没有简单优美的解决方案呢?ELMO提供了一种简洁优雅的解决方案。
-
-
-
-### 2.3 ELMO
-
-ELMO是“Embedding from Language Models”的简称,其实这个名字并没有反应它的本质思想,提出ELMO的论文题目:“Deep contextualized word representation”更能体现其精髓,而精髓在哪里?在deep contextualized这个短语,一个是deep,一个是context,其中context更关键。
-
-在此之前的Word Embedding本质上是个静态的方式,所谓静态指的是训练好之后每个单词的表达就固定住了,以后使用的时候,不论新句子上下文单词是什么,这个单词的Word Embedding不会跟着上下文场景的变化而改变,所以对于比如Bank这个词,它事先学好的Word Embedding中混合了几种语义 ,在应用中来了个新句子,即使从上下文中(比如句子包含money等词)明显可以看出它代表的是“银行”的含义,但是对应的Word Embedding内容也不会变,它还是混合了多种语义。这是为何说它是静态的,这也是问题所在。
-
-**ELMO的本质思想是**:我事先用语言模型学好一个单词的Word Embedding,此时多义词无法区分,不过这没关系。在我实际使用Word Embedding的时候,单词已经具备了特定的上下文了,这个时候我可以根据上下文单词的语义去调整单词的Word Embedding表示,这样经过调整后的Word Embedding更能表达在这个上下文中的具体含义,自然也就解决了多义词的问题了。所以ELMO本身是个根据当前上下文对Word Embedding动态调整的思路。
-
-
-
-ELMO采用了典型的两阶段过程,第一个阶段是利用语言模型进行预训练;第二个阶段是在做下游任务时,从预训练网络中提取对应单词的网络各层的Word Embedding作为新特征补充到下游任务中。
-
-上图展示的是其预训练过程,它的网络结构采用了双层双向LSTM,目前语言模型训练的任务目标是根据单词 ![[公式]](https://www.zhihu.com/equation?tex=W_i) 的上下文去正确预测单词 ![[公式]](https://www.zhihu.com/equation?tex=W_i) , ![[公式]](https://www.zhihu.com/equation?tex=W_i) 之前的单词序列Context-before称为上文,之后的单词序列Context-after称为下文。
-
-图中左端的前向双层LSTM代表正方向编码器,输入的是从左到右顺序的除了预测单词外 ![[公式]](https://www.zhihu.com/equation?tex=W_i) 的上文Context-before;右端的逆向双层LSTM代表反方向编码器,输入的是从右到左的逆序的句子下文Context-after;每个编码器的深度都是两层LSTM叠加。
-
-这个网络结构其实在NLP中是很常用的。使用这个网络结构利用大量语料做语言模型任务就能预先训练好这个网络,如果训练好这个网络后,输入一个新句子 ![[公式]](https://www.zhihu.com/equation?tex=Snew) ,句子中每个单词都能得到对应的三个Embedding:
-
-- 最底层是单词的Word Embedding;
-- 往上走是第一层双向LSTM中对应单词位置的Embedding,这层编码单词的句法信息更多一些;
-- 再往上走是第二层LSTM中对应单词位置的Embedding,这层编码单词的语义信息更多一些。
-
-也就是说,ELMO的预训练过程不仅仅学会单词的Word Embedding,还学会了一个双层双向的LSTM网络结构,而这两者后面都有用。
-
-
-
-上面介绍的是ELMO的第一阶段:预训练阶段。那么预训练好网络结构后,**如何给下游任务使用呢**?上图展示了下游任务的使用过程,比如我们的下游任务仍然是QA问题:
-
-1. 此时对于问句X,我们可以先将句子X作为预训练好的ELMO网络的输入,这样句子X中每个单词在ELMO网络中都能获得对应的三个Embedding;
-2. 之后给予这三个Embedding中的每一个Embedding一个权重a,这个权重可以学习得来,根据各自权重累加求和,将三个Embedding整合成一个;
-3. 然后将整合后的这个Embedding作为X句在自己任务的那个网络结构中对应单词的输入,以此作为补充的新特征给下游任务使用。对于上图所示下游任务QA中的回答句子Y来说也是如此处理。
-
-因为ELMO给下游提供的是每个单词的特征形式,所以这一类预训练的方法被称为“Feature-based Pre-Training”。
-
-**前面我们提到静态Word Embedding无法解决多义词的问题,那么ELMO引入上下文动态调整单词的embedding后多义词问题解决了吗?解决了,而且比我们期待的解决得还要好**。对于Glove训练出的Word Embedding来说,多义词比如play,根据它的embedding找出的最接近的其它单词大多数集中在体育领域,这很明显是因为训练数据中包含play的句子中体育领域的数量明显占优导致;而使用ELMO,根据上下文动态调整后的embedding不仅能够找出对应的“演出”的相同语义的句子,而且还可以保证找出的句子中的play对应的词性也是相同的,这是超出期待之处。之所以会这样,是因为我们上面提到过,第一层LSTM编码了很多句法信息,这在这里起到了重要作用。
-
-**ELMO有什么值得改进的缺点呢**?
-
-- 首先,一个非常明显的缺点在特征抽取器选择方面,ELMO使用了LSTM而不是新贵Transformer,Transformer是谷歌在17年做机器翻译任务的“Attention is all you need”的论文中提出的,引起了相当大的反响,很多研究已经证明了Transformer提取特征的能力是要远强于LSTM的。如果ELMO采取Transformer作为特征提取器,那么估计Bert的反响远不如现在的这种火爆场面。
-- 另外一点,ELMO采取双向拼接这种融合特征的能力可能比Bert一体化的融合特征方式弱,但是,这只是一种从道理推断产生的怀疑,目前并没有具体实验说明这一点。
-
-
-
-### 2.4 GPT
-
-
-
-GPT是“Generative Pre-Training”的简称,从名字看其含义是指的生成式的预训练。GPT也采用两阶段过程,第一个阶段是利用语言模型进行预训练,第二阶段通过Fine-tuning的模式解决下游任务。
-
-上图展示了GPT的预训练过程,其实和ELMO是类似的,主要不同在于两点:
-
-- 首先,特征抽取器不是用的RNN,而是用的Transformer,上面提到过它的特征抽取能力要强于RNN,这个选择很明显是很明智的;
-- 其次,GPT的预训练虽然仍然是以语言模型作为目标任务,但是采用的是单向的语言模型,所谓“单向”的含义是指:语言模型训练的任务目标是根据 ![[公式]](https://www.zhihu.com/equation?tex=W_i) 单词的上下文去正确预测单词 ![[公式]](https://www.zhihu.com/equation?tex=W_i) , ![[公式]](https://www.zhihu.com/equation?tex=W_i) 之前的单词序列Context-before称为上文,之后的单词序列Context-after称为下文。
-
-如果对Transformer模型不太了解的,可以参考我写的文章:[Transformer](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.7%20Transformer)
-
-ELMO在做语言模型预训练的时候,预测单词 ![[公式]](https://www.zhihu.com/equation?tex=W_i) 同时使用了上文和下文,而GPT则只采用Context-before这个单词的上文来进行预测,而抛开了下文。这个选择现在看不是个太好的选择,原因很简单,它没有把单词的下文融合进来,这限制了其在更多应用场景的效果,比如阅读理解这种任务,在做任务的时候是可以允许同时看到上文和下文一起做决策的。如果预训练时候不把单词的下文嵌入到Word Embedding中,是很吃亏的,白白丢掉了很多信息。
-
-
-
-### 2.5 BERT
-
-Bert采用和GPT完全相同的两阶段模型,首先是语言模型预训练;其次是使用Fine-Tuning模式解决下游任务。和GPT的最主要不同在于在预训练阶段采用了类似ELMO的双向语言模型,即双向的Transformer,当然另外一点是语言模型的数据规模要比GPT大。所以这里Bert的预训练过程不必多讲了。模型结构如下:
-
-
-
-对比OpenAI GPT(Generative pre-trained transformer),BERT是双向的Transformer block连接;就像单向rnn和双向rnn的区别,直觉上来讲效果会好一些。
-
-对比ELMo,虽然都是“双向”,但目标函数其实是不同的。ELMo是分别以![[公式]](https://www.zhihu.com/equation?tex=P%28w_i%7C+w_1%2C+...w_%7Bi-1%7D%29) 和 ![[公式]](https://www.zhihu.com/equation?tex=P%28w_i%7Cw_%7Bi%2B1%7D%2C+...w_n%29) 作为目标函数,独立训练处两个representation然后拼接,而BERT则是以 ![[公式]](https://www.zhihu.com/equation?tex=P%28w_i%7Cw_1%2C++...%2Cw_%7Bi-1%7D%2C+w_%7Bi%2B1%7D%2C...%2Cw_n%29) 作为目标函数训练LM。
-
-BERT预训练模型分为以下三个步骤:**Embedding、Masked LM、Next Sentence Prediction**
-
-#### 2.5.1 Embedding
-
-这里的Embedding由三种Embedding求和而成:
-
-
-
-- Token Embeddings是词向量,第一个单词是CLS标志,可以用于之后的分类任务
-- Segment Embeddings用来区别两种句子,因为预训练不光做LM还要做以两个句子为输入的分类任务
-- Position Embeddings和之前文章中的Transformer不一样,不是三角函数而是学习出来的
-
-
-
-#### 2.5.2 Masked LM
-
-MLM可以理解为完形填空,作者会随机mask每一个句子中15%的词,用其上下文来做预测,例如:my dog is hairy → my dog is [MASK]
-
-此处将hairy进行了mask处理,然后采用非监督学习的方法预测mask位置的词是什么,但是该方法有一个问题,因为是mask15%的词,其数量已经很高了,这样就会导致某些词在fine-tuning阶段从未见过,为了解决这个问题,作者做了如下的处理:
-
-80%是采用[mask],my dog is hairy → my dog is [MASK]
-
-10%是随机取一个词来代替mask的词,my dog is hairy -> my dog is apple
-
-10%保持不变,my dog is hairy -> my dog is hairy
-
-**注意:这里的10%是15%需要mask中的10%**
-
-那么为啥要以一定的概率使用随机词呢?这是因为transformer要保持对每个输入token分布式的表征,否则Transformer很可能会记住这个[MASK]就是"hairy"。至于使用随机词带来的负面影响,文章中解释说,所有其他的token(即非"hairy"的token)共享15%*10% = 1.5%的概率,其影响是可以忽略不计的。Transformer全局的可视,又增加了信息的获取,但是不让模型获取全量信息。
-
-
-
-#### 2.5.3 Next Sentence Prediction
-
-选择一些句子对A与B,其中50%的数据B是A的下一条句子,剩余50%的数据B是语料库中随机选择的,学习其中的相关性,添加这样的预训练的目的是目前很多NLP的任务比如QA和NLI都需要理解两个句子之间的关系,从而能让预训练的模型更好的适应这样的任务。
-个人理解:
-
-- Bert先是用Mask来提高视野范围的信息获取量,增加duplicate再随机Mask,这样跟RNN类方法依次训练预测没什么区别了除了mask不同位置外;
-- 全局视野极大地降低了学习的难度,然后再用A+B/C来作为样本,这样每条样本都有50%的概率看到一半左右的噪声;
-- 但直接学习Mask A+B/C是没法学习的,因为不知道哪些是噪声,所以又加上next_sentence预测任务,与MLM同时进行训练,这样用next来辅助模型对噪声/非噪声的辨识,用MLM来完成语义的大部分的学习。
-
-
-
-## 3. BERT的评价
-
-总结下BERT的主要贡献:
-
-- 引入了Masked LM,使用双向LM做模型预训练。
-- 为预训练引入了新目标NSP,它可以学习句子与句子间的关系。
-- 进一步验证了更大的模型效果更好: 12 --> 24 层。
-- 为下游任务引入了很通用的求解框架,不再为任务做模型定制。
-- 刷新了多项NLP任务的记录,引爆了NLP无监督预训练技术。
-
-**BERT优点**
-
-- Transformer Encoder因为有Self-attention机制,因此BERT自带双向功能。
-- 因为双向功能以及多层Self-attention机制的影响,使得BERT必须使用Cloze版的语言模型Masked-LM来完成token级别的预训练。
-- 为了获取比词更高级别的句子级别的语义表征,BERT加入了Next Sentence Prediction来和Masked-LM一起做联合训练。
-- 为了适配多任务下的迁移学习,BERT设计了更通用的输入层和输出层。
-- 微调成本小。
-
-**BERT缺点**
-
-- task1的随机遮挡策略略显粗犷,推荐阅读《Data Nosing As Smoothing In Neural Network Language Models》。
-- [MASK]标记在实际预测中不会出现,训练时用过多[MASK]影响模型表现。每个batch只有15%的token被预测,所以BERT收敛得比left-to-right模型要慢(它们会预测每个token)。
-- BERT对硬件资源的消耗巨大(大模型需要16个tpu,历时四天;更大的模型需要64个tpu,历时四天。
-
-**评价**
-
-Bert是NLP里里程碑式的工作,对于后面NLP的研究和工业应用会产生长久的影响,这点毫无疑问。但是从上文介绍也可以看出,从模型或者方法角度看,Bert借鉴了ELMO,GPT及CBOW,主要提出了Masked 语言模型及Next Sentence Prediction,但是这里Next Sentence Prediction基本不影响大局,而Masked LM明显借鉴了CBOW的思想。所以说Bert的模型没什么大的创新,更像最近几年NLP重要进展的集大成者,这点如果你看懂了上文估计也没有太大异议,如果你有大的异议,杠精这个大帽子我随时准备戴给你。如果归纳一下这些进展就是:
-
-- 首先是两阶段模型,第一阶段双向语言模型预训练,这里注意要用双向而不是单向,第二阶段采用具体任务Fine-tuning或者做特征集成;
-- 第二是特征抽取要用Transformer作为特征提取器而不是RNN或者CNN;
-- 第三,双向语言模型可以采取CBOW的方法去做(当然我觉得这个是个细节问题,不算太关键,前两个因素比较关键)。
-
-Bert最大的亮点在于效果好及普适性强,几乎所有NLP任务都可以套用Bert这种两阶段解决思路,而且效果应该会有明显提升。可以预见的是,未来一段时间在NLP应用领域,Transformer将占据主导地位,而且这种两阶段预训练方法也会主导各种应用。
-
-
-
-## 4. 代码实现
-
-[bert中文分类实践](https://github.com/NLP-LOVE/ML-NLP/blob/master/NLP/16.8%20BERT/bert-Chinese-classification-task.md)
-
-
-
-## 5. 参考文献
-
-- [【NLP】Google BERT详解](https://zhuanlan.zhihu.com/p/46652512)
-- [从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史](https://zhuanlan.zhihu.com/p/49271699)
-- [一文读懂BERT(原理篇)](https://blog.csdn.net/jiaowoshouzi/article/details/89073944)
-
-
-
-------
-
-> 作者:[@mantchs](https://github.com/NLP-LOVE/ML-NLP)
->
-> GitHub:[https://github.com/NLP-LOVE/ML-NLP](https://github.com/NLP-LOVE/ML-NLP)
->
-> 欢迎大家加入讨论!共同完善此项目!群号:【541954936】
diff --git a/NLP/16.8 BERT/bert-Chinese-classification-task.md b/NLP/16.8 BERT/bert-Chinese-classification-task.md
deleted file mode 100644
index 5e15002..0000000
--- a/NLP/16.8 BERT/bert-Chinese-classification-task.md
+++ /dev/null
@@ -1,46 +0,0 @@
-# bert-Chinese-classification-task
-bert中文分类实践
-
-在run_classifier_word.py中添加NewsProcessor,即新闻的预处理读入部分 \
-在main方法中添加news类型数据处理label \
- processors = { \
- "cola": ColaProcessor,\
- "mnli": MnliProcessor,\
- "mrpc": MrpcProcessor,\
- "news": NewsProcessor,\
- }
-
-download_glue_data.py 提供glue_data下面其他的bert论文公测glue数据下载
-
-data目录下是news数据的样例
-
-export GLUE_DIR=/search/odin/bert/extract_code/glue_data \
-export BERT_BASE_DIR=/search/odin/bert/chinese_L-12_H-768_A-12/ \
-export BERT_PYTORCH_DIR=/search/odin/bert/chinese_L-12_H-768_A-12/
-
-python run_classifier_word.py \
- --task_name NEWS \
- --do_train \
- --do_eval \
- --data_dir $GLUE_DIR/NewsAll/ \
- --vocab_file $BERT_BASE_DIR/vocab.txt \
- --bert_config_file $BERT_BASE_DIR/bert_config.json \
- --init_checkpoint $BERT_PYTORCH_DIR/pytorch_model.bin \
- --max_seq_length 256 \
- --train_batch_size 32 \
- --learning_rate 2e-5 \
- --num_train_epochs 3.0 \
- --output_dir ./newsAll_output/ \
- --local_rank 3
-
- 中文分类任务实践
-
-实验中对中文34个topic进行实践(包括:时政,娱乐,体育等),在对run_classifier.py代码中的预处理环节需要加入NewsProcessor模块,及类似于MrpcProcessor,但是需要对中文的编码进行适当修改,训练数据与测试数据按照4:1进行切割,数据量约80万,单卡GPU资源,训练时间18小时,acc为92.8%
-
-eval_accuracy = 0.9281581998809113
-
-eval_loss = 0.2222444740207354
-
-global_step = 59826
-
-loss = 0.14488934577978746
diff --git a/NLP/16.8 BERT/data/dev.tsv b/NLP/16.8 BERT/data/dev.tsv
deleted file mode 100644
index 2ff6836..0000000
--- a/NLP/16.8 BERT/data/dev.tsv
+++ /dev/null
@@ -1,30 +0,0 @@
-game EDGϣʦʾ̭ ϷԭֹվõȡΥ߱ؾFnaticʦɹʾһƱȫĽǿŶACD0-3ս˵ǴǵʿΪ0-3Ŀ֣Ϊֻ۳ߵĿܣ֮ǰʵߵķʽк֣ܶ١ֻҪһĶս֡Fnaticʦ조ʱ˺͡Ĵ˵ҲǡС6-02-4·ߡFnatic״̬ãһ4-0ʵת˫ɱIMTGAM°ǿƱŴLZһôôõһʦʾEDGĽDzǸأһɣEDGС֣SKTC9AHQEDGҪԼ뱣ֺ״̬õijɼȻսȫʤѡҲֻSKTӱȫʤӮC9C9IMTDZսӣСڶֺܲˡBuffӳɣC9S5ʱһ־ȫʤǵڶֱӺͽIMTһ̭C9ⲻҪBuffһ֡EDGӮC9ѣӲʵ˵C9ԭͲEDGĶ֡һֵIJҰ¬ǰڷƣC9ϵõӡֻҪܵһֵЩȶأƴ汾ͶEDGȫɻC9ġӮAHQAHQҲѣEDGAHQҪкڵDzָӳʧӲʵAHQеȷʵûEDG㣬Ż油ֻҪScoutߣEDGԻAHQҪ˵EDGսAHQSKTΪʵǿжΪһսָӾϳֵʧԭƵEDG̡һڵʱEDGѵܽԼʧֱEDGǷӮSKTSKTDZȽѵһ֣ϾSKTķǾԲٸEDGһ1ƵĶԾֵġEDGӦÿЧµһֵսɱijһ·ʼFakerҰʵSKTϵлͦǰץġֶսSKTʱFakerץˣŵڶıӦҲEDGϣSKTҲнϴϣ3ʤǴ3-3ôEDGߵĸʾͻdzߡ4-4һSKTҲûϵFnaticõӣҲLZȻ2-4Ļִ˼ҪC9AHQĶԾ֣ҲC9ӮIMTһ2-4ףAHQӮC9SKTEDGSKT֮⣬ȫ2-4ĻִˡEDGʵ־кܴˣضEDGڶֻC9AHQҲƣͻˡʱܵ˵EDG߲ѣҪEDGѧϰFnaticԼ״̬áͳߵĸ·ҪԼ2ʤսġFnaticսԽEDGƾʲôأԲҪ̫EDGǵʵѡϣEDGܹúѧϰFnaticLPLϮɣȻҪһ㣬EDGսȫʤ3-3SKTõ4ʤˮõ3ʤC9EDGǻᱻ̭...ԣԼŬҲҪսӵıˡϷԭδֹתظлλ֧~ĹעdzµĶ
-game CSGOҡţһ± бCTץ شϲѶCSGOҡţѾɹץò˵Чʻġ õĽ϶һҳ˵ټĻ϶ҲһȥϷ֣Ҳȥˣڼôľˡ ˵СڹʷҲЩʹŰIJɾϷˡЩڿƼʹ֧ ֶˣͱ̱ͷͱǽͷȵȿŵĻɱʽ˺ҶϷϲҸе˾ һȾڹһЩеķҴʩпϣ룬ѵһ鵽δĹƽеСȻе̡ ԴӹʼеʱػѾδķˣ2WҵʺˡһνĹ ˻ϲľʼᵽCSGO̵ҡţ߱ץˣڶࡰţӡҿɹ飬νԴϲ ˡCSGOţijбץ ҿɹġţӡѾҵIJ֪ˡ ijţQQȺѾ ֱQQȺCSGOؼʵЩȺŲٵȺ˵ġţȺɡ ﲻò˵һ£ĶȫúܶȰCSGOҳһ裬ЩӵǾųһ亹 ֱAWPһֱЩߺʹߡ͵¶ͷȻһǹǵĹͷ ҹDzǸòˣǵġʳĸѾˣͻֵˡ žһֵĴĻúܶ࣬ɴܵijҲ˺ֲܶ࣬Ҫˡ ˵ʱһRUSH Bɡ
-game LOLŮҲʤʶ˻в ںܶϲADC˵ǰ汾ȵŮձӶȷʵ˿ЩۣΪÿڴ֮û˵dzĻᣬºͳƣŮʤѾǵһˣ Ҫ˵IJңİȺ۵ĵһ̶1ʱ˵һںܶ˻ڴȭͷܹλADCмǿʱIJԷ˵ Ϊˣ εٴŮļӽиĶܵʱ䣬һ˼ӵijʱ䣬ǰ˵кڻһĻڵĻdzˣ Ҿ̳ŭȭͷýƽС Ŀǰ7.19汾IJԷڱܼĶصôŮӢۻGGˣ
-game ֿΡڴּӸУҪIJǾԱ ϷƼƤСǡĿ汦ʦ˵Щڴ֡ؼʸλɻɣͯĿʱ⣿ڡϷУҪƼƷǡΣPokemonΪֿΣWorkemonֻϷϷԱɿֿΡһ淨Ч¡ڴ֡ƷƷʱկƷϷ֪ҪߵȥϷУ㽫Ϊһ̳ϵĹ˾ĿDzԱΪѹկͶĴʦڴʽĿWokremonPokemonֿΡһȤģ⾭ӪϷϷҿ鸻CEOģ˹ԼǮϵǼ̳еһҹ˾ϷռĿǾӪҹ˾ҪļԱͬʱͨ˿нˮѹեԱͶӹ˾档̳ϵ־ ΪԵܲáֿΡ淨һ̶Ͻ˷ȫġڴ֡սģʽͼռϵͳ˼ӸСʽԱȡ˾飬ҪӦͼͨķʽƸǣģ¿ڴֵŶ˸еһЦΪ˻ԭҳνӴڴֵĸжϷĿ·ֱڴһëһսͼֿڴҪѱЩҰԱIJǾҪѹǵнڴѹǵ,ֱԸţΪֹɹܴ˾ϰ࣬Ϊҵ档Գ˿ڴֵҪ⣬ʵ淨ǾӪɡȻϷѹեͶҪҪһϰ壬ǵðʱԱʣҪȻȫ·Ļ˾ҲƲˡϰ廹ѹեԱͶֿΡľӪҪ쳣ḻﻹǽܲ꣬ϵ̾ΪԱѵԱӪգ˾ڿĹλµ˹ߵȣӦĿֻ٣Ϸǰڳʽľ㲻봽ֻͨۿȡĽҡҪǮĿܶ࣬ȱǮιɡֿΡ˻ڴ֮⣬ϷȤ¼ҰⲶԱʱûԼСϵܺܵõһǮᷢļҪн¼ΪһԵܲã˭Ҹ㿪̸ǹʾͿץˡܽ˼ؽˡڴ֡ȴֲֹģ¡ԼḻϷ淨˻һЦĹ˵ֿΡϷĿȤζȷʵڷƵĿӪϷƼλ档Դԣ״ϷʱѡϷڰг
-game սDZ̵ս˵ļ Ҷ֪ϿеÿӢ۶иԵص㣬ЩǰǿƣЩЩӢǶ˵Ĵڣս˱СſЩӢ۰ɣһļϰӢۣÿܶܶģ2ܵĶ˵ըпǸɴѪʱмټܣϡڲǷϲķʦˣϿǷ˵ңŻ÷һضǣг˺˸ĵǴ氮Ƥ褣ֳһƬõ廨ߵӢۣӢ²¡սе˷еˣŴͻȻѪˣҪȥкţһܾͶ㲻֪ȥˡСұġսеһʺ۶ôֻͣҪ϶㶥ķѣûͻȻֺתܣҲDzҲǡ
-game LOLԭ¯ļǿ ϷԭֹվõȡΥ߱ؾLOLPBEռ7.19汾£ԭߣӢ۸ĶƽȻΧŮȵչװ¯ٴνֵһĽɣԭٻʦͷƤĶԼعƤֱӴлƶЧƽףعǹ䡣عЧӢ۸ĶWǰĶüܻɱĿЧԷһֵ˼ǿĶԭĻɱ6/8/10/12/14ӵ20/25/30/35/40ԻһβСļǿڻǰڶʱվ֪ʦ˸ĶУDzطеCarryλأŮWܳʱ30/22/16/12/10Ϊ30/24/19/15/12Ĵȫȼ30½20ʱ30/40/50/60/70Ϊ30/35/40/45/50롣һƽԵĸĶʱӳĽͣʱ̡ŮļȻãǺڵʱ20룬ϳܵӰ죬ڵļСŮ[Ч]Ŀ귨Ҳɶħ˺Wȴʱ12/11/10/9/8Ϊеȼ8˺60/115/170/225/280Ϊ60/105/150/195/240ٳʱ3뽵͵2ƽԵĸĶȴʱ٣˺ʱ̡װ͝ǰһѾӹ̶ֵĻϰ汾ЧĹٶȼӳɴ[20-35%]Ϊ[20-40%]˺[20-35]Ϊ[20-40] [Ч]Ψһٶ/лѪЩӳɽҲʩԼûPBEԵ¯Ǹĵ¯Լ趨¯ڸͷŻܼӳɵʱͬЧҵʩԼӢۻdzΪA˾ͲδӹٺѪЧADCӦûסȻĿǰֻڲԷĸĶǷʽдδIJԽҫ۸2500ǵ2650ϳɷô950ߵ1100˵ľۺܳɱ2200ߵ2250ϳɷѴ200ߵ250Ϸԭδֹתظлλ֧~ĹעdzµĶ
-game DNFǹͺǹְҵ, ʷʫһ DNFħǹʿְҵǹͺǹְҵħǹʿְҵôְҵʷʫѾ£ֻǼĺһ£ҲοôȽܵǹʷʫǹ60-90ֹûкֻԺ60ʷʫǹBUFF+215+5,30+3,35+3,45+2ٶ+10%˵BUFF͵70ʷʫǹ˼+3+3%ǹ˻ָٶ+40%ǹȴʱ+50%˵רΪǹ˼ġ75ʷʫͷ+2%ǿ+18Թħ+2%ʱ8%Ļ˺30ܹ+20%40ܹ+20%80ʷʫͷ+2%ǿ+32Թħ+2%ʱ17%˺ʱ5%500PXΧ5硣85ʷʫͷ+2%Թﱬ+5%ħ+7%ħ+13%ʱ30%˺̡״̬·ڡ90ʷʫͷ+2%ﱬ+6%ħ+8%ʱ17%˺ʱ100ڣʱ˺5%(40%CD0.1)90ʷʫͷ+2%ħ+2%й+18%װBUFF150Sٶ+10%ͷ+15%ʱ˺35%ĸӡǹʷʫôǹʷʫЩ?60ʷʫǹ60ʷʫһһBUFF͵70ʷʫͷ+4%ħ+2%-1%ٶ+30%ʱ5%ļ30Sڷ壬30%ٶȡ75ʷʫͶǹͨ+4ʱ˺+20%80ʷʫ35ȴʱ-20%45ܹ+25%ըΧ+30%ʱ18%˺85ʷʫһ+1ʱ25%˺й+17%500PXΧжԱĹ+10%+10%ͷ+15%90ʷʫͶǹͨ+1һ+3ʱ˺42%ӣܹ+10%90ʷʫͷ+4%Կ+35ħ+2%-1%ʱBUFFʱ35%˺ħ+18%ǹͺǹܣħǹʿְҵǷñȽ죬һ?ְҵǻ?
-game Ӣ7.18ԷS7ƤߣӢ۸Ķ 7.18ԷΪܵĸĶѾˣڱԤܸ£S7ȫܾı汾ҪΧƽиĶԷڰŮΥƤ羺ƤϣϣƤƤ۰ٷֱȻ뵽ءƤϹս (1350RPħڡƤͬһϵ)ھ֮ʸ ϣ(1350RPS7ȫܾ羺Ƥ۰ٷֱȼS7)ٻʦͼ2ھϣͷ3ģʽͻͷ2S7ȫܾͷ55S7ȫܾضͷֻнS724֧ͷƤ1S7ȫܾƤ1S7ȫܾĽɫƤ(ֻùϵͳ)ŲƤ (ɫ)ھ֮ʸ ϣ(ɫֻͨϵͳ)±5Ӣ۵45S7ȫܾض¾ģʽͻԽϷвS7ȫܾ¼ų¶ļͼ¶ٻʦͼS7ȫܾϿѾӵͻ˿ͻезĹܴƤнӢ۸Ķὣħ п˹Qڰ֮ԾڷпʼʱΪ赲̬ڷ·пɱɳĮʵ ȶR֮ǽ˺150/225/300ӵ150/250/450ħ֮ӵ E˫жĿɵĶ˺15/40/65/90/115͵10/30/50/70/90APӳ0.4ӵ0.5֩Ů ˿WԱ֩(̬)˺60/110/160/210/260͵55/95/135/175/215APӳɴ0.8ӵ0.95E˿(̬֩)ȴʱ26/23/20/17/14ӵ26/24/22/20/18˫ ưȱ֮ٴ15/25/35/45%ӵ20/30/40/50%R˫սڷưĿ긽ʱþ֮Ķټӳʧ֮ ɶһֵ540͵510Ͱ ˹һ״29.05͵26.05Eⵯĩ˵ײ Eֶùϻ˺50/70/90/110/130ӵ60/80/100/120/140˺APӳɴ0.7ӵ0.8ǻ Wƽʥֵܻ65/90/115/140/165͵60/85/110/135/160ÿһзӢṩĻֵ2/2.5/3/3.5/4%͵2/2.25/2.5/2.75/3%äɮ Wֵֻ40/100/160/220/28055/110/165/220/275ʥǹ ¬Eȴʱ18/17/16/15/14ӵ22/20/18/16/14̩̹ ŵ˹QֵͨĴ60/70/80/90/100͵ȫȼ60˵Σһ뷨ֵĿҰŮ εEҰԱ(̬)APӳɴ0.275ӵ0.325ɽ֮ ¶ʦڰ¶ﵽ13װWϢ˺Ŀ굱ǰֵٷֱȵĿֵٷֱעòʦʾĶȡ˰֮ Ӷһ״22ӵ25ķʦ WĽAPӳɴ0.2ӵ0.6 ˿EըADӳɴ0.5/0.65/0.8/0.95/1.1͵0.5/0.6/0.7/0.8/0.9װĶֵ325͵300֮ȴ10%ӵ20%ܼ۴2200ӵ2300˪Ůʵָȴ10%ӵ20%ܼ۴2200ӵ2300˪֮ȴ0%ӵ5%ʿܼ֮۴2300͵2200ֵ350͵250עӡĶǻعָصʦ(¶棬Ťֵͼ)ܼ4550ϳɼ۸1050+55APע7.17汾ݸ֮(¶)ֵ38+22*ȼ͵35+22*ȼѾȥ5֮ܵϻĻЧûЧ0עӡʦʾBUG(-¶)ϳ·ߣɳ©+1000ܼۣ3900+100AP(+30AP)+60(+15)
-game LOL˵ʮһӵұԪպǵãѧѧ˼ңٿ㣡 LOL˵ǵʵӵLPL˵̨ͱܺܶ˵ĹעȻ짵ŵǷзŸʧܣCPҲֻͬǵȻûзŹƯӣͱڽĿбҪȫ2017ӵʲôġ ڽıDZԪúõijһ ģ˵ʮһǴҹϵӣҲɹһźʹԼĺ Ԫת@˼ǵãɹһʮһһƬǻǡ ǵõȻ˷ʾԼҲӵұֻզôԾأ ǵʦϽҸŮѰɣ
-game ACGһң˶ԪﻹϷҵġ" ͬɡͬˡȻѾ㲻һϷˡ2014 6 25 յ½ƻƽ̨ Playstation mobile20157תսiOSƽ̨iOSսʼ㣬Ҳнӽ3ʱ䡣Ѿӽ3꣬Խ۹ͬɡȻҲһƷʼߣҾ߱ߵıʶȵΡͬɡѡϵɫ֮һ¼˴ԪĿBվܺVϵСеġͨDiscoǿνBվ2016ںӵĿݳݳͨDisco˼ߵȳBվfansױʾǡ˴Ԫڡ ʷʱ̡֮⣬粻ͬƵ棬ҲáͬɡӾ˾öĿһ¡ǵԻøУǶԪʱĶ⣬ֱкϵʮСڹĿУöҡַdzŷȡгmiss20157¡ͬɡiOSϼʱϷֻ2120172£ͬɡ¼ĿѾﵽ100סһ˵㲻̫ߡǰѡͬɡбȽҪĸһҲVҶԪ֮⣬һЩĶͬɡµһθУ˺galgameNEKOPARAլѾõϷܡ˾ֻҪĿλŮװӣ¶˻ĵЦݡԡͬɡ˵Ͳǵһˡ20165£߿֮ǰͬɡƳˡ߿100졷ϷνѡǸһͬ߿ϷϵһİڡͬɡУ㻹ҵڶƽ̨϶¼ѼġICEYԸΪҵΡŮǹŮǰߡЩϷٵĴŶԪԡ˵ǶԪȵ㣬˵ЩϷȵ㡣ͬģС롶OPUSƻµŵĶϷЩϷƷȶȲرijãӵмõĿڱ֮⣬ͬɡˡ桱ֽλȶ⡣֮ѡϣǷ·ܿͬɡһλϷ˫ҡǡд˽ԼϲϷƷкһͬϷӸԼϲϷԪأȻصȴͬϲЩԪصҵʵ֮̾ijϷû֮ŲɱʲôԱͬѧڿμԼϲ̳ϰԼˮϷڴʱϷ¸ֹ㿴ЩµĹһЦ˲䷢Լҵָ֯оáͬɡܸĸܲһදĿô֮ͬͬͨһţһȷϱ˴ݵĬȻָоҪһ仰ǴžǺܶǰѾġACGһҡչĶ
-fashion IJѧ¶ɱ,㻹˼˵Լʱgirl? Ƿʮ,紩һּ㡣¶˴ȺС,ǵСǧӡ,һּ,µǺͼ粿źԸ,͵ȴҲ,øոպ!һĨջȻĶʱһ¶װӴ,Ըͷŵǡô!ر¶װ,һŮ! ԴʷȥƷƵװһ,ȥ,ɳ һȻdz,ǾԲһ˵ʱԪ,෴ʷdzƾáڷǰ,ʱʱװʼ,÷ŮԵķװչ¶Ůߵ¶Ԫ,һӾͳΪʱʱֵij2050,ܵ˺ܶŮӰǵϲ,ϷϷⶼϲһڹСӰǰձ(Audrey Hepburn),ڡʹ˼䡷,¶粿,ر߹š,ɰձݵİݹʹһּ,һ,ѹǡ˳ԡElizabeth TaylorĺƯ,رɫ¶ȹ,ֱһžµͻˡ¶(Marilyn Monroe),д漯һȹ,Ըкչֵ쾡¡ ǵʱֿ,ԼͬİѡսתƵزϡ¶硱Ϊʵʱд,Ƕ¶lookڹ,ҲԸһ,šԡȵȷͨ¶ĵƷӰӰѡ¶ȹɫԵôʫʫСȹһִͷ߸ЬִŮ,ʫʫ̫ÿݨALL BLACK LOOK¶ͶԵʱֶȱ!װٺΨҶ¶chokerθзḻ,װţп㹻˼˼,¶һȿLOOKǴʱѡ ˭ʺ¶װ źܶMM볢¶װ,Լʺ,ߴ̫¶С̴̽ʲôʺ¶װ,¶װƯ1СŮĽСŮ˵,¶¶һͼӰ,ͬʱһּõСŮԸ,ֹǸ2ͷ,ҵƴ,Լȴһõͷʵ,ѡһص¶װ,¶ǰشļ,ѡһ粿ڿյĿʽ3ӿشʱʱֵɱ,һСľͻƷװԭеļ,濴׳¶װҲܽ,ѡܹ͵һǰ,ӾչְSߡ4ƽȻ˵ƽزʱ,ҪúҪһ,ʱѡҶ¶װܴӾСȱ,ͬʱ,͵ֱۿϸ5С¶Ҫ,ҵĿ,עתơ,ڿʽѡϿѡɵġ¶,ܾˮ֮,ɼöʧбĿʽرһֲƵĸо㿴ʮ ¶+װȿ,쳬дȡ̿¶װ,ϸ,Ůıַӳ,档¶ȹװ¶ȹװ,,,ΪԪصص㶼չȹϡĽͺ˵,ȹװʮӦ֮ʡҪɫΪ,¶ȹװǻһЩá PS:Щʹһּ ַ˦·˼ 糤¶ڵ,ڹʲôַ,ĵŮζչ¶š̫?ǾͰͷͷ,ˬ,յıرֱӰͻ,ˬͬʱ,һ~̷?ǾͶһ黨,ַӻΪŮ㲻ϲͷ,ǾɴˡLOBWOBͷξѡ,Ȼ,ʱֶȱʲô컻һּϺʵķȥԼ~
-fashion ر֯7ˣ ˵رƷǰʱд£ʵ֯Ҳһٹܾ֯ڽУܶңʱڣһ֯ܽ㡰ഩһȣٴһ䡱Ρ֯ڻǰ£һЩС˼Сƣʱְ~~п֯һضһص£Ϊߣı쵽죬һֱܻӭ콫ҲպÿԴ֯ǹɫ֯ڸսȥļڣǹɫ³Ȥζʵɫ֯ŸнϣɫҲ쳣ʱ֡˶֯˶֯˶֯ĻѪĿʽȥͿʼУȻʱ֡λÿԿԵڣڱС죬ҲԱV죬һ֯ʱȦиŷ𣬸Ľ֯һĸŸУͬҲһdzٴĵƷ2017ԪأҲӦõﶬ֯УҲ˺ܺõֱáڼǵģѾ㵽֯ˣҪ̫Ļֻڲ䲻ȵļˣˣһͿס...֯ġ֯ģӣʵΪinʱеƷ֮һˡ֯ôɫ֯ԴɫΪҽǹɫҲȽУһɫ֮Ҫôźáɫǹɫ֯ɫװԵ÷dzţҽҲʮСɫţȹҲʮֵഺлɫɫһɫϵʱ͵ĺɫDzˣеĸɫһɫĵʱ֡ͬɫϵҪʵڲ֪ôźãǾѡͬɫϵɣɫϵôҲײͬɫϵɫһ𣬻ܴθСײɫɫңײɫ䣬ɫҪײˣָڽ˲Сˡ磬ڽײɫУɫͻɫĴϾʮָ֯Nִ֯+ȹڳʱڣ֯ԴİȹʱֵӦ²ҪǾ촩ȹеȹӿԴһ㣬˫èЬˡ֯ڴǰ˵֯ҲǽеƷ˻촩ȣ촩ʵѽ촩ʱڴһѽOliverʱ֡һЩȽϸԵ֯ģڴһһ֡ʱָС֯+ŷֿʽ֯ľŷȿҲܺҲ֮֯һ֯ľŷţп㣬Եøʱ֡֯TԽT֯ܺÿ֯رƷ
-fashion ɵɵĻǮȥȾˣʡǮСڸ ÿһʱ䣬ҪͣȾʱзͣʱгԷʵ˺أѹ̫ʱ䷳ȾڣҪΪڰϾÿ˶ǰġܶʮʮ꣬ͳ˰˻˵̫棬ֵԼϾ֪IJÿϡʹ˶̫ⱻ˵࣬οأԼҲ֪Ⱦã̲סҪڸǣöǮ꣬ŷ֣ԼڼȾҲֹܼˣʡ²СһǮһֲںȾʡѡȾʱҪע⿴ɷ֣ݱֲﺬߵĸӽȾһԵģӴɳڷʹãȫģɫѡȱʺϰȽٵģڸЧáضֲȻ̼ɳرȾȻֲɷ֣ӣȾͬʱɿݡë귢ʣӵ˳㷢жɫѡʺʹáά˿ȾװʱԼȾãǾ٣ȾΣϺõȾᣬȾӪҺŽͲڣСڻԶĭȾֱͷܾȾȻÿиôȻ̼ȾࡿиʹõȾκȫرߣֲɷ֣ϴˮһʹãϴϴ㶨ַ㡣̬ȾһԵȾȿںʽĸЩԴߣӦ÷ΧǡͷֻҪаڸǣˢĸӾϸ壬ʹüЯ̬屴ֲȾҩȾҲDZϲ屴ӡڡỨȲҩɷ֣ڶ⣬»ָɫ
-fashion 꿺γʱiconս,˭ʤ ı֮ʱicon,ѡʱ,Ϊǵą̂ѾһλԽһ л!Ƚ˱ְ۶ȸ,˵ʱдҲǶάžӸ߲µȶ,ͷһѸ¶~ijЩԲŮæĴͨ塢,Դʱ,ⲻ֪賴ųž!Ƚһֱҵнɱ,ʱ!,ڡȽûбʱ֡ϹŸܸɡą̂һλ,˾øȤǶλ!ą̂Ƚ,عߵľ꿺γˡȻ,λҲͺԸ糴CP,ֻȽγĽλӦԷ,˸ϲ꿵ĶλڶʼӴʱȦ,Ħȭ,֮н˫ĽɹΪװ־Ƭ,ͨѶ뻮һı硰ͻƳ߶ȵװȷʵʵ,Ƭķ꿽ȻͬһγԸ·ߵֵù,ĵҲ,ʵѡ־ƬѶȱͲ,ּԸл,Ԧ̶ȿ֪ԴӿˡöĴ,һԸ,뵽ݵ!ôڴӪǵ꿽,ˮһ,һֱ²,Ҷ꿽ż!Ȼ,꿽㲻ʼϷ,ʱȦ³,һλâС γ,Ǻȥ˰Chanel߶㳡,ʵñһ±ơpoˮKaty Perry,Tilda SwintonܺӰ״ʱװ,ͱݿս̸߶㳡,װChanel¿ˮƿְ,Ϸ绯λ,Ʋ,ȷʵбDZ˵һ,̻¶㹵,ƽӹ!˵Pͼ,뾭Ǽº,½ûٸγ˰,ܲ!εƬ̶Ȳ,ëһ˿һĸɸɾ,ѹϲ˭ˡ...ο,Ʒй,Լͨ㵽볡ȯλһ:̰߶λü伫,Сܸ㵽Ʊ,ҲǼ¶һֿ,õýƱ(Խϴ,Ϊλڰÿ˹ٷ);ڶֿ,ؽƷVVIP,Ʒֱܲ(ȻԸֿԱֿ,ɹôҲҪϸһʱŹҰ)Ҫ˵,꿽϶Сǰ!2016ﶬŮװ꿽ͱ,ʱͺܶӦûӡ,Moncler Gamme Rouge㳡,ʱȦδõ꿽һСײ˲ʦ֮ˡµĴ,ֱʦһ,꿽20롣2017սİʱװܵ꿽,ȾһͷHigh fashiondz,ϯAlexis Mabille㡣ص꿽¸߶,dzɫͷŷ,һ·ˡȡװ,ȷʵСǰͷ,⻭治ֹһˡӰ¥д,롶װӰʦӦз˰ɡ,꿽־Ƭ֪˦Сü֡程ϵ程Ի÷程ŷ程ֱҲһۨ꿽,ˡСͳһ˶Լʶ,ǰдƬfreestyleĴƬ,켷ۡ·ҲϲĴƬơԴ־Ƭ,ƴһƴ˽ĵƷ¶СԼһ¶紩ȥʱװ,Ҳ˳Ա쨋෴,꿽ĴƬʲô,˸ϲ꿽˽ըĴ,ԡһʱװڼ,ͻʱв,,Ƭ˲Ծػÿ˽ҲǴѴѵĨ˭ʺϿʱicon֮·?:jean / ͼƬ:
-fashion ȹ,е! Ŀ·ʱ,ѧ,ʱд!ɫϲɫ֮һŮмֱǷַӵŮҲϲڳϯʱСȹ˭ĸÿ?ʫʫʫʫһ¶˿ȹɫһִͷЬƨDior̿СɴȹŮʮ~chokerʱֵϢ~ݨһҶȹͭɫЬŮ~ȹԵøӾ䶼иʮӫɫһִЬ۶Ⱥܸ!ܶꨋܶҲСȹжһɴȹɫͬ߹͢ŷһ¶СȹԼchokerŮд˧ĸоҲԻСЬCHICи!һװ͵СȹԵñȽʺϳϯʽ~̨ǾͺϲڳϯҪϵʱѡɫʮֲһ˿¶һŮζ~ӰӰLOOK˾˺ܶԪҲԵҸԲԲԲԲȹƸкǿСӡĵòô~һLOOKҲŮԼֻѡȹƤµĽһ˫СЬԹ!ӱӱһȱһЩʵԼһЩ۵~程һȹԵʷdz~ͷܹȫ!ĨѡdzİɫӡTȹСñСѥ˹ķ~һײ~˵ƴŮĸоľǾķ~ǶǶСȹҪȽϸ~ĺõӿԳԿֿʽ~ӵһСȹֶdz~ʺʱֶȼ߶ҲʴСЬǵһѡഺҪϰഩŴһ˫߸ЬOK֪ԵͬʱҲԵֱͲĿʽȽʺϸ߸~СҲ볢ԵĻ߸ЬϥʮĿʽӴСӹѡȹʱҪǵߡϥʮ߸ЬԸ߿ԽȵȵƷҪʽϴѡһЩñȽӲͦĿʽʺ˿ҲСȹȽϳϲͬƻܴһķССѡֱĻߵƵĶ̿~ɰƤŮζǿҴ߸ЬЬһַʽAεȹͬʺСӵĹЬƽЬdz곬ͬСȹı־Ԫ֮һĨȹʺϸԵӽȽԵĵƷŲԵùԸ~һСȹ㴺³ذ
-fashion Ь | ȻLVͬϰЬķ糱⼸Լ۱ȵϰЬһҪ֪ ԵģûLVҲԼҵϰЬܲܣϰЬȷǻˣͷһֱ˵ڵyeezy 700ֻbalenciagaTriple SͳݻLVⳡսУIJò˵ʱȦô~ LV˫ϰЬӾ˵ķdzϰЬصϣеԵ÷dzǰϰDzܽܵġ˵ǰоѶȻͦߵģЬŪôߣûпŵȳû취Ԧˡ ȻϰЬ糱ѾϮˣǰ˵ϰЬҪüµܻҵǾòֵ̫ˣôûĿʽҼ롰ϰЬأ Converse ʷҲҶ˵ˣNike֮ǰNBA˶ԱЬӦģһ֮ǵҲϽŹЬӡ û˵ľConverse Fastbreak ǵŵGU汾Fastbreakǵױǩǵ̤NBAǰһİ壬һֱǩԼͿ֮ǰ㶼ܿǵԿǶôϲ ʷϰЬ糱ٶϤnikeְֶˣЬ¸̲ƳۣΪһ¼nikeְΪгϵĹǷѾ˼ ˣEDCҲϽһµFastbreakҲǽڼvapormaxһһ֪Ƿأ Nike converseѾˣNikeôʷͲһ۵ϰЬ Emm.....Air max 97Щ˭֪ˣйϴ۸ҲǾӸ߲£ҪԼ۱ȾͲǽ۵ķΧˡ 97кܶûģƩ˫Nike Air Spiridon˫ͬ90Ьӣһ֪ϰЬеٮٮ 90nikeȲzoom air˵ҲֿȵЬŶԡεAir max̫ˣҲڽ OGɫõǻɫƺɫswoosh logoԶȷ97Ӱ档 ʵzoom airǰҲ¸ƳһΣʱNike Mercurial FlyknitڵڶصͬĻȣܵҵɼDzСġ 꿴Air max 97ΪŵnikeϰЬ Asics ˵ЬĻAsicsôܲأAsicsΪЬңܶ˵ӡҲͣרЬϣֻGEL-LYTE档 ҷһ˫ʮͿĸЬɫҲʮ¡Asics Tiger Gel-Diablo OG ˵AsicsŸжôôغãǵĸЬҸоƫ̵ģźһһеܵĸо Ƽ˫ЬϾ˳ö࣬ʽҲӵ˳µɫһʱҲǴҡ볣ĵĴϵĸɫɫҲӰٴϰһкǿ֪ҲǷϲأ Reebok ֪ǷǵǰʱyeezyadidasƳЬأɫϲƫŵװɫǴϻɫ϶ŨŨĸϢ˵ͨһ˫ŰЬyeezyļӳҲ Yeezy x adidas Originals Powerphase Ը߰ļ۸ܶ˽Ŀת൱Reebok Club C㻹˵֮ƶǸߣǴͳСЬͣԶǷֲ塣 ReebokҲǿнϰЬ糱½̳ûдǿ˵ʷ̷ḻعʻԲ㡣Ʋȳ̶˵˫ЬϽЧһ㶼yeezyҪһ˫ҪҪ˳ۡ ˳İЬ֮⣬ReebokдЬͬҲǽŽķ糱¸ƳںܶRBK˿˵һĻعǽĸжЬ״㲿λǶĻͨЬ㣬һĵڵ˵Ǿdzǰġ ε¸̣ΪڵϰЬгסŸ˵reebokΪdzָķɡ
-fashion 죺˭˵ʱСſò֣ⲻص... 117գCHANELڳɶٰ2018紺ȼϵзᣬѸʫʫŷȡΰ˼Ƕۼڴˡʫʫΰ硢˼ΰ̲áҲɶCHANELɶ2018紺㣬ɫëƶţп㣬λĺΰâĺÿأûжԱȾû˺ֳ˿Ӱȫɱ~Ҫ˵̲áӮң2009ƾһ̲Ƭߺ죬ɾ24ɹԾ2017²Ƹ500˰Ϲǿһӵ388ңͬÿ챧Թǰ;ãʱ·һĻ˴еһСȻƽġ̲áǰ˵: ҵűǵ졣ǽ꣬ѷ֣ԴЧӦġ̲áʼߵĻعҰ;ʱжԽƵ2 £ʽʱйƵᡢʩƷ̵dz4 £ЬЭΪԱAAFAָͰٻԾŮ˵ݣŦԼٰһ˽ʱ硣쵱Ĵicon95Iris ApfelڵŦԼʱȦʿ˽ĵϣ̹ǿǡݡܿϵܡ5 £μʿݳƷChopardɵӰڼٰSPACEɶԡͬʱ Chiara FerragniMcQ Ʒƺ JD X ϵзΡ6£ھվ·˸еݳƷִƬˢȦʱȴͬһʱγ 3.97 ԪͶӢ֪ʱеFarfetchΪʱƷչʵ죬ڴչµʱҵͬʱҲŬͦʱȦ7¸ߵȥ߶ʱװܿ㣬dzDior 70߶ϡȻDior 70̺ΪͽˣnononoDiorգڹ߶㳡ͷšͣChanelĸ߶ϡ㳡IJѷɫŶռ7µȵʱѶͷ8 £Ϧ˽ǰϦChopardھӪ콢꣬ƷƷƬChopard9µŦԼʱװܣϯ DVF3.1 Phillip LimOscar de la Renta ʱװ㡣in DVF in 3.1 Phillip Lim in Oscar de la Rentaʱװܣ Mary KatratzouHuishan Zhang ʦƷƣӢʱװЭɺ 2018 1 ˫ͬƽ 2018 BFC/Vogue ʦʱлĿ̡10 £ ELLE йϯִйټѩƵƵͬࡣ1010գ˳ƳݳƷƽ̨TOPLOFEToplife x SuperELLEϳƷƷгڣǵӢ־ Hong Kong Tatler ʮ¿档ΪTatlerʱдƬͷֱ DiorNina RicciChristopher Kane鱦ΣChopardHong Kong Tatler áDIGITAL DARLINGֳڵķ⣬罻ý˵ݳƷʱеỤ̊ǿĹת䣬صעڴչľʱҵڲɷҲᵽ֪ʱе Net-a-Porter Ĵʼ Natalie Massenetǰ;һҲɿҪй Net-a-Porter ġԴǰƵ߶ʱװܣһȥƹͲʵҲּΪ̯ݳƷȨľĹעȺʹڸСϾǿǿ֮£̲õĶžĶ£ʱѵı仯йʱҵѾȫ汬80 90 Ϊ߸Ըұã˸ԣصڳΪߵҪԭʦʱֵɳʱѾʱҵµҵģʽƽ̨ϣʵƷơʦ֮õӣⲻغƽ̨ʦߣҵӦŻѿϢϢء Toplife ھվӪ뾩ģʽͻ۷ͻӦûĹģʽƷΪƷƹٷ콢ģʽӸʹݳƷƣΪʱʿݻʽļ߿ݳ֮á;ȥһʱж֮㿴Ұ1017գ˫11ȫڵķϣѶͬƳںϵ۽ۿ˫ʮһüޣ£ѶǸԼһǿ롣ѶǰͰٶȡͷס滢Ƚˡȥھġ־սۡУèΨһĶ֣ҲǾ㽻ѵĿڡʵϣèĶԹ˾֪ڹȥ6181212ȹϣǵĦϼӾ硣9³ǿºԣ5ڳԽèΪйB2Cƽ̨ɴ˿ǿԾ֪ǣèɴڲࡣ£˫ʮһڵĵⳡսĻҩζԽŨҡȻèijɳҲĿõģǵھŸ˫ʮһ2009꣬è˫ʮһɽ0.5ڣ2016꣬è˫ʮһɽѾﵽ˵1207ڡ˵èijɳйĵ̷չǺϵģҲץס˳ڵè˽ĸ߶ȡǿþèأ
-fashion װ:^OLͨװLook,ͨװʱʸ! װ:Ҵͨװʾ!ʲôͨװ?˵ǾOLְҵװ,DZְҵװһЩ,TţȹӡȹԳ֮Ϊͨװwifi¹ۿo(**)o~~~Ԥ:´䲻֪ǰС()ʾûĶ?ǰȿµľݻع˳ȿļճ似!^´ļlook!ںƷƼ~ͨװ+ţпԵø첲ͬʱһЩŮζ,ɫͷЬ©ͽҲȲ!+ȿٴİ׳Ըߵİɶȹһ!ȿԴ!ƽЬһɫʸ!+װһOLͨװ,Ƹеİ׳װһ˫ͷЬʷǷ!ȻƽЬҲdz!Polo+ȹװżõ,ڴ̫Ͳ̫,Եúˬһܰ!֯´ʺϴ֯ʱ,֯ůڴɼԦ!ֱͲ㡢װ㻹ţп㶼Դ,һ״!ڴŮ֪!ðȹҲԸȳĻƷ,Ĵ㼯֪һŶװװѡ,͵ĸƾкŨĸϢ,^ͨװȹӴ´ȹǸ߸ӻǰӶ˲!^ȹر,,ɫҲӰ!ëµִܼɫ俴ȥȴܸ,ʵһɫؾ!ƼƷŮװ콢Ỷϲ³MyLittleMushroom ĢĵϹϹNAGUAGUͨװο24װŮ´ͼƬ,ͨװʺ18-38Ů^ͨװ´װͼƬ!27ʺϳͨװװͼƬLOOK!ë+ȹ=2017ﶬʱֵĴʽ!ٵĴ!Ը10cm!ȿ+ƽЬ=2017ﶬʱֵĴ´!˽Żظؼ,鿴ݡ֡ȴ֡СӡΨ䡢ġƻġشƽءӡ֡߸ӡȼ١Ьӡװӡļ^
-fashion Ůж̷ͼ СΪҴеŮж̷ƣʱУҲdzļϲӲҪˣһСһ°ɡڿ۵ж̷ƣбֵ䣬ɴﵽյЧԳɫȾҲԵüʱСĶ̷ƣƫֵݣԵúʸУɫͷҲԵʱдھж̷ͣɫͷԳʱ£ԵúƫֵҲﵽݵЧһɫ̷ƣʱУʸʮ㣬ƫֵҲﵽݵЧʮֵĺÿĶ̷ƣɫȾʱԵúлУʮֵĺÿʵƫҲﵽݵЧɵ̷ͣƫֵ䣬гµʣɫͷҲԵȻʱС
-fashion 2017й | ǵô̵İѧ 127գ Marie ClaireЯְARTISTRYƷƣΪֵ2017й糬ʢҫĿǡʢԡYOUNG硱Ϊ⣬ȫʱи㲻һYOUNG˲ױʢҫع飬ΪģǴStyle China߷ĸʱױݣڴɹʸ߶Ůʱװ־Marie ClaireġйStyle Chinaʶʱƴͣ2008𣬾ȫʱװƷΧƼȶƼǡǡйStyle Chinaʮ꣬ͬʱҲǡMarie Claireʮգ˴ȦʵԼʱдڴ2017йStyle Chinaʢ䣡ݣƵǰ֪~ǵȥйʢֳϺ̺ǹڵôװͶȺǣעİôٵ˰?2016йֳɫװεȹúɫִպͶɫӦЩú鶯ĸо2016йֳOscar de la renta 2017ϵкɫҶ߿ĨְְݻгɫĸʸС2016йֳɫɴƴí֯ȹýɫǶְǽɫְLookɫȴңָν͵صӷֵƷ2016йֳʯΣźɫɴ鳤ȹɫLady Dior廨͵ȤɫչDiorʱװ빤ս2016йֳŷChanelɫڴװףɫChockerƲԻۣбChanelɫ2016йֳɫɴ鳤ȹɫƬְְɫʹвθУƬʵֺɴγɺӦ2016йֳװٺChanel 2017紺ϵкɫ廨ƴ۵ȹChanel 2017紺ϵֱͼǿְdz谮İһTAرԭLOUIS VUITTONAsnieresֹֻñ䣬йΪ֮ĵһɫĵϷ䡣ĵйеܣнǧʷɫޡŨйֵ֮һһеĿʼԴһ䣺·ǵľ·롶Marie Claire Style AwardAsniresʾӹֻñ䣬һɫĵԴйɫĵĵӵΪ֮صĻͻ滭ƷܷḻйеزܣɫޡŨǧȻǧ˹ʷ·Asnires ʾӹʱգӲ䡢رƲƷϡƤִÿʱװִϵȻAsniresʾӹAsniresÿ450رƷб䵽䡢ɰڷ30ijмܣζأǶжҪͳֽرDiorDioramaִԴڵϰĻϵѼ۷Եϰ¸ƹľտֹաϰƤֹĹʦDioramaִںִ黳DioramaִֵķǷǰԪһϰ¾ٸƣCannageͼΪϰµıʶȫµDioramaִϣΪһ䡰 IT BAGGIORGIO ARMANI˿ر2016йStyle ChinaİԴڴͳռõӡһСвþϣȾЧֹɡʽͼֹϸ˿ƤϵļFENDIΪһԴݳƷƣֹһֱƳŵļաMTOֹPeekabooΪֹһһIJֻǸƵרУһ黳һֶֹյĴСǵĴ飬ִڹ·һĿʣϵĻ俴Ϊ壬Ϊ鶯Silvia Venturini FendiSilvia Venturini Fendi˵ԼոµǰСͳһӱʱʱƷλ߹ŮԸе⡣ݼԼԴԺݻִʵΪȴ̲عѡϣȤĶԱȡֻѡPeekabooŮʿſԷִ۲дڴϡJIMMY CHOOƷCelesteðͼһƬԡMarie ClaireֵѧԺƷ뷨ڴֳɫʵҲ˻µĸоȤСMICHAEL KORSǽ봿ֹϵƷǵĶһضĻٴ졣Щ䶼ɴֹɣðƤíƤƳɵĻ̶ִ֮ϡMichael KorsɫһֱMichael KorsɫԸУ붯СرķʽɫִϣΪɫйͳĻҲ塣ִMichael Kors CollectionMirandaִΪԭƵġϣܹΪŮṩѡԣֱִһɵڵб⣬ִıһԽִʹߵֻ˵֮⣬ͬʱܷʹȡáROGER VIVIERViv Micro' Crystal ΪסζԢ֮УݻϣֲͬĻġȻĶŮֹIJϣϻЧʹʮViv50־Miss VivĦǽ;ױȵľ¹աϸIJͨӨҫdzҡ飬鶯ţⲻTORY BURCHԴֹйĴͳĻɫȦƵӡʯԼƬԪأйӵIJƸ˲䴫ͳֹշͬʱе顢ͭӵȻϵ˴ȻáStyle ChinaֳɰLOUIS VUITTONASPINAL OF LONDONTORY BURCHMICHAEL KORSJIMMY CHOODIORFENDIͰһðΪԼӷ֣ѡʺİ֮ǰЩĹ¡㶼˽2017йʮʢϣϲǣֻ;ϲأ127գڴ˵2016Style ChinaѾǾʷ׳ʣô2017йStyle Chinaʮ곬ʢһʢ磡ϣڽʢϿ˭أԸν~λģױȫARTISTRY˶ͼƬԴ /IC/Ӿйöˣȫ
-houseliving 140OִԼ ǽƲ һִԼװް,ں˶Ļ,ڹŵִ֮һԵڹ,˷ḻװʹװɫ,ÿ䶼չֳصϣװްܸװĴҴһЩС:90O::ִԼغ,ŵľDzˡĵ뾫µĻ;,òͿռҲ˸ߴϡ,һĵ,ʹռвθСǽװƷõƽпͲ,Ϊʹռ䲻ô,ǽûɫҪԺڰɫΪҪɫ,ʱдֲʧ¡һ,һ,һ,Լ鷿ǰˡ˾Ԫ,˶صӾСԵƳֳδװص,ɫɫԵÿƻøʮ㡣ɫ¹ճǽΪռ˶صĹ۸,ֳһֱԴйŵĸ,Ӫŵ˯߿ռ䡣ش,䴰ɴʵ,ɫĴͷǽɫƷ,ʹռвθСİɫשʹռӼͨ,ϾʱǶʽԡݸҲǼõ,˾ѡĻ,Сòз,ʪЧķֹˮɢ
-houseliving ž,̽Ѱε֮ ˮཨ,ϸ,dzૡӲǰ֮,Ǽҵܰ塣,ȥķ,Ȼﻨ,,ɹ·1Լ֮,ɫ˾ij,ƻпɼҵů,ɾ⡣2,,ӲʵDZżҵ,Ϊصıܷۡ3ͳʽԺ,ԺΧ֮γѪؼԲѧ,鸳轨,ͼסլ4ɾIJ䳾,ŵİӪӯʸ,·һֻ鶯صȻ衣5Ĺʽ,֮,ĵ,ϸͦε,̾,̾!6ͥԺ,ʵķ,ѡõ͵ɫ,ֻ¶,Ľѧ7Ӹ߿ո,۵,Ȼг,˲,¶8Χ,һʿռ,סլƷ,9ҵ¶Ȼ,ůҷ,ڴ˾,ذꡣ
-houseliving 10Wӻʹ,120OŷЧο! ʾ:ĩβȡ4+ÿ5120ƽװʲô?ʹһιһŷװЧͼдŸƷĵ,ܰʸҲDzֺġ: :120O :10Wװ:ŷ,Ҳȫչֳŷʽ,ÿһϸڶž֮ӱǽ˴ͳװ,ηܺ,ʱд컨ҶװαڻÿԵó,ζƺŵ,ĵθƥ䡣벻СеĿҲҫ۶Ŀ,Ҳչʾÿϸڵľ°ѿ,ڻۼ,שӡ̡ǽڻ͵ǽڻγ˺ܺõĺӦ,ҲͳһСŵװòɫ,ǴשװͲ,ռָǡôȻû̫֮,ϵӾЧǷdz۵,ǽɫ,ں϶ĸߡҿһ߷һɫŷʽ¹,ɫǽֽ,ˬȻ,,װЧҲʴ35Żղװαǽ,120Oӳ˽չ90Сתλ,110OŮ·С,90OװԴ92Oһװ,ֻˢ˴ǽ!ENDװʿں̨ԻϢСἰʱظһ!װװü,Ҹ↑ʼסάע!ԭĶȡơ
-houseliving 107O±ŷ18,̨ɷ ʾ:ĩβȡ4+ ÿ5̨ 107ƽıŷ,ʹԭľɫ,˿ռȻʵϢ,ÿλصҶһķɡСļҴžͳⷬģ,¼Լ,Ȼƣ,ҪҲҸ!Ϣ:ŷ ::110ƽ :18wռҾ߶ԭľ,ɫɳǽ,,ɫɳ,ɫϵ,˲佫ռСɵļҾʵ־,һɫЬɳ,˿ռϡװĿ̨,ʮֳ,µװ,벻ϲ~ʱ뱳ǽΪһ,ƸгǿġֲԾռ,ҲڱزٵװƷǶȿ,ڶ档̨ĻǽҲǽӦ,ӾзŴЧ˵ĽIJ̨,ŶܾǼӷϲЩСԵIJοŶ~dz,˸,ʹǰɫǽIJҲõ̻ɢɫұɫǵɫ,ƮIJֱ,ɺϢ~ҵIJϲ,dzdzɫ,ƺһ㡣һܲӴͯȻٲ,ռɹ÷dz,dzþõ,ʱ䳤,,ռDZزٵ!ɾıŷ,³ҲΪһ!ש˷Ҷ,ýҲԳһ羰ԡԡƽͼ:һױŷСӵĽ,ǷҲɵ?ϲķ,ӭ·²СŶ~ϲ132Oִʽ,ҵ20,Ǿֵ?88OСװ6,걬100ƽ,Ȼһñ!11.8㶨130Oʽ32,ȫЧõڡ80O6װ,һμǽ+ŵIJ!12136OԼʽķ,Ų
-houseliving ֻ75O,ȴ120Oʽռ Ϻƴܶ˼,Ϻ仧,ⲻϸСҵķװ,˷ܵ˵ʦԲܾúܾõʽ,ȻװгһЩ,սǺ,ĺܸлʦһ¼Ұ~ʽĿǰdz˻ӭװ,ӵȻɵзΧ,ʽ,ܵһ˷˿Rachalʽҷ,ϴѧһοʽװ¶ԺԼ˼һҪװʽ,Ҳͦʽ,ǼķôشõȻɫ,ˬɾǽؾİɫ¹,һžʹŨŨȻ,ԵúȻгʽװκ͵,ͼ,ѡرעȻʸСdzľɫƵļҾߺ͵ذÿռʮֺгһֹɫķΧֲʧִʱеϢԲεľʲ輸,չֳŨʽԲεİɫ,ʽŨʸеļӹʽĴ侹ȻΥСɳǽԭľ,Լһ,ʹԵÿտ,ܺõʽЧڻ÷̬ӯСֵ,˿¡ҽֲΪҴ,ǿȻнֲ̨ܽԻ,ֲ赲Ĺ,Ĺɵÿһ,÷ﱾͰɫǽ忴ռиӵ㹻˾÷ʮֵĿ,˴ĸҲ,Ըһʮ־µĻʿǽγ˼,ԭľɫIJδɵòͻ뿪ʽijΪõĹߡɫԭľɫΪɫ,ࡣ㹻СչʾʽǿɹܡƮó˼ײ,Χʵصıʹʽʷÿһռ,ҵĹսǴ鷿,鴦ͷ˺ܶࡣʯʵذ;ԡӾЧ,ĻƴשͰϴ̨Ի֡ʽװij˵ĸоǸɾࡣòƲմȾһͻҳƵġʽ̶̻ܴϼ̶Գ,Ƕʽ¯봿ľľȻһ,ֽԼռ,Ҳһ̶ֳȻСľƵ˾ȫݼҾo2o߶˶СլO2OƷζ,Ϊ!|ihomeo2o.comĶԭļɻøʦ
-houseliving ůƬô۶ӣֺãյ͵ůòˣ ҶůƬֻϷͬ־ǼҲõ١仯Ӿ磬ϷʱҲʼѰso~СдƪůƬ»бҪůƬ˼壬Ǽȿ£ʶȡˮůůůDzԭһֳȡůʽůůƬŵ1. ȿ죬õůƬԼΪ10ӿʼɢСʱﵽԤ¶(202)2. ԵûҪpbܻܸϹܶµܣӰĵ档3. ãȵԼʱ䡣ֻůƬҪģĻdzռռϳůƬͨܳտ˱ʾܽù۵Ҳ֡ʰ쵵ŮġôУС־ҵּȺÿֺõĴůƬڵкůƬDZزٵIJǵůƬdzIJһȽϸߴе㡰¼+ůƬĸоƽԵʹýµ·õëеطԡҵ˵ᄀ˨ΪʶΪ豸ߴҴлĴʵҲضйɫĸоǹ˷ľУҪøߴһǾһ˶ëҲװʵǽͬɫdzгҾȻ˵УִԼҲܼԦƸмǿɹӵͿܺгʡһҾ߱ܿԷЩҪõСװƷԡСɵ̶ܴܺϽԼ˿ռ仹ʺСӵӴ~֡СӡСӻϲϰָֽһڼ㺢ϷЩůƬDzǴĴţûдdzdzȻСಢûӡҪҡ ̨ظйؼ ҾƷζ | | ¹ | ױ̨ | ñ | | 鷿 | | | 칫 | | Ʈ | ̨ | | ̨ | | | | ͱ߹ | | ƹ | | ǽ || ӹ | 輸 | ɳ | ͯ | ´ | ͯ鷿 | | ִ | Լ |ʽ |ŷ
-houseliving һɲ䣬Ʈ һգģռٿռ䣬ȴʵáװУȶȾӸ߲¡˵ܲµʲôûǡաƮСΪҷͼҵװƮһһƮҴСܶһءƮӹɣмΪĶǣһױ̨dzճLƮҲǼװġһƥܳеɹܣҲикȥҴСҪôɿռ䣬Ŵ¿ռ䶨һŵعƽʱЩСдҲDzġ鷿иƮɴ˳һף棬ԼҪдﶼDzѡÿʵá鷿͵ĴǸ泯IJ·͵װ˷ѵϧͨƼҾ߽Ʈ״С鷿˲ܷƮ״ϵӵĵͯϢ״β¹һƣ˿ռ䡣أϿ캰ʦƣԼҵĴɣûԹעʫҾ100ں̨СȡƮưޡ
-houseliving Ȼ¼,ԭǼҲô˧! һԼĶֳĿռ,Բȥ,߲ձ˵ȥݵӰһ,;һ,ȫԼϲ,ûжԴҽ쿪,ϲľǶԵ,ڱˡ ȻFrom Ȼר ELLE DECO Ҿ 2017.07뾮ļ,Ǿͱ侲ɫ,ܶ˾Ļϻ߹ҰеľȻů,˵,˽,ʵǽѽӽһ,Щ䡱ļӲֳĬķ,Ҳ⡣ҲԳֳһЩļʡݡ䡱,ϲʵġת¥,һеķ:ˮǽ桢̶ͬȵѼɫ,һ侲ļҡTom DixonĻͭ¼ԼءʻɫdzɫƴƤ¡ɫƤHermsȻļҸ˵ĸоܹǡ䡱,ΪսĿչʾ¼,һֱ˵ǡ䵭硱,Ҳܻ,ֻǻԼںһ:ƽɫѡĢɫͼȲͬѼ,Ļԡϲڰ,ϲַḻIJ˵ظС һԭеĸ,,ֻһԡһŻоЩ,ֵҲǾȻ뱣ֵİFlexformɳ˴ĵط,ִ,ȻΪӲˡ,ѡˡӲˡźȥѡ䡣رϲɳȵ,Ƥ,Ҳ,dzʵáǰ輸DieselMorosoϵ,Ӧ̺֯ʴ̺,ڰҵëҰ,ǽϵĻҳƷбƴӵĵذӦǽɫ,ĴҲǾȻرѡ,ͬʵغɫԸCeccottiĻͭصԼ,ɫֹҰɡ³ɫţпLouis VuittonҾҵһ,ҷdz̡ڲʦ,ϲһҪһ㡣¼Ҹĵһ,Ǹıռ,ÿռԵøֱ,һ¥ȫһſռ,վλһࡣΪװʱǵ,ӹԢĸо,ϣһ,ƴͳĸ֡ λԭdz,֮ͨʽǽĹžȻġӻ̡,żʳҰɸ˺ܶҾƷĽ,ҲæѡྫʵIJƷVitraFritz Hansen,Jonathan Adlerĺڰƿһ㲻ͬķ,GubiɫơʦPiet Hein EekƵƴӲǾȻձʱϵ,ʱһų,λûԲθʺϡϰڷڸռմ,ǷAstier de Villatte,дһƤķʽĬϲġҳappˢƵͼƬ,Ƭɵʱῴ,رϲľͷʦڹʱҲȥּҾӵ,õܶѾ㹻Ӻ,һܶʱӶݵ״̬,,ĵط,ȻϣȫԼɡͨġϲһҸϲһеô,Ҫ,;ÿɸˡ,һ뵽ҵҾͻܷ,ܿ,λؼҡ˵ؼҸȥ?Ҳ,ҾǾҵĴ,ҵĿ,ҿκ顣 ڵijԭһ,ͨΪʽ֮ռ䶼ͨ,ΪġӹԢѾ㹻ǽϹŷ˿Ļ,̡λԭƻһչʾղصı,ûҵʵ֮ǰżȻÿ궼ȥ,ÿȥһֻAstier de Villatteı,Ҳʹòͬıӡչʾڼ,ġ׳Burberry ϲЩ,Ƿdz,ֺܵƤȻʵֲǺܱߺ,ʱ,ַʽСе㾪ֻ28ľȻ,Լôָ˵Լʱ,Сүү߳,һ˯,ֱвԼĿռ,һ10ƽС,һŴһд̨ˡ,һֱڴһԼľסռ䡣 ˽ ¥ݺþȻdz,һ侲ɫɫ,˽˿ռ͡׳ͰɫȿBottega Veneta,dzɫHerms,ѺϽ۾Bolon,Ի,İɫдLouis Vuitton ˳¥ʰ,ԿݶԲβ,ͶıһַΧ¥Ծ˵鷿,ƻĶһ⻨,ֲΧлдĵķɡFritz HansenӰڷCassinaǰ,ѡľɫ;Gubiɫ͵,úӦ̺֯ĵ̺ˢĥۼĻɫǽڡˮ¥ݡӲеֱǡʸеװ,Ȼļһָ߶ͳһ,ҵζʮ,ȴʱִġһЩϸڴѡܵĸӦ,ñĵ,߹ȥԶ;ٱǶǽĴ,һ,ҲԼð,Ĭ ñ ñĽɫȡҵĢɫγɲͬ,ǽϹŻľΩƷAϵ֮һ,մԼءñЬñڷŵþ,Eero AarnioOriginalsPonyһЩͯȤ ñ,,̨ϰڷDossofioritoֲ۲ԵɫȻѡĢɫ,һѼ,,رʺ˯ߡɫװBurberry,ɫĸLouis VuittonմϺһҼҾߵѡ,Ȼһ¾ͿʸСɫΡľƴͷë֯Loewe,ɫͷGubiƷǾȻرӵļҾƷ,ʱ̫ҲЯϴ Եϴּʱеˮĥʯ,һҵʮ㡣ڿӰǵԡҳʱʦϴּ,ڵĽҲȿһЩС,Ҳӵס,˽ܡ˾Ȼļҿ,дסռ | õ˾ӻ·ά벢ʶ,ӹעע:תԼҾ,ID:elledeco2004,ʮָлСϤ,ͼԴַȨ,뼰ʱϵ,ǽһʱ
-houseliving 3ɫʴ似ɣҲЧͼ! IJߣҾװɫҲǵİɫǺɫʿװĴɡСһЩҾװɫ似ɣһѧϰ°~ݿռIJδɫǽ桢桢컨ϴĵطʺdzɫΪر컨壬ɫ̫һѹ֡ظСɷһЩ컨塢ǽɫԱСڼüԵóݷ书ܴɫɫΪذ塢컨ǽɫȽϸߵdzɫɫIJ輸ůɫɫΪǿ˵ʳԸůɫɫΪɵĵطмɫΪ ɫɰ˵ϲãȽϸߵɫʿȽʽྻݷ䳯ɫķѡdzůɫϵķѡɫķѡɫķѡůɫɫҪdzɫʴ1++=㾭 +ӪǿҵӾЧɫ˺֮ӾͻھסַΧԡרҵС2+= ɫܴɫʣǹʹðɫҲһֵУӾƣ͡ɫԵúܿͻ˰ɫɣֵкʽþӼҵķΧȻ3+=ϲ ɫһ۵ɫʣϲãʺϼСļͥɫ˸оƽ꣬ɫʺķʹá ҾװɫװķкܴӰ죬ûѧרҵɫ䣬Լ뷨ϣʦļҾɫüɫӺгͼƬԴ磬Ȩɾ
-houseliving 127ƽ¼ס оDzһ ҿ װȫǸԼ뷨,ʱʦ,װסҲ˿һʱ,ͦ尾ġ¼ҵģ,һжԺˡס·оDzһ,ɹɹ:һ鷿:127O:еʽζ,ɫͦḻ,Ǵͦõ,̫ͻأ,ֱ̨Ӱװ˲,оÿ,յͦġͦ,ˢ齺,ǽװ,컨ͦ,ͦвθеġڵѡıȽһЩͦ,ɹҲ,͵ɫͦÿ,еҰϵӡˮѡIJǺ,оôȽϺһЩЬƵͦر,ʽߵ,ЬȫԷ,ͦʵõġЬ̨,ƽʱԷһЩԿʲôġˢ齺,̵ľذ,Ҳµ,Ʈ˲ɹЧ,忴ŲԵǽĵɫıֽ,˸,ͦġͯװеС,ɫϱȽϻԾ,ԺӱȽϺʡڷһС,Ӷѧϰʹá鷿ͦС,Ҫ칫õ,ڷ̨,Ͳ,,öͦİɡ鷿иСƮ,˻Ϣ,оͦõġȽһЩ,ò˸ʪ,Чо̨ʽ,ϴһǶʽ,ͦʵõġ̨װ˸,ڷһЩֲͦġװϲ?װʵܼ,ǰ㶨!ĶԭơȡƷ
diff --git a/NLP/16.8 BERT/data/test b/NLP/16.8 BERT/data/test
deleted file mode 100644
index 8b13789..0000000
--- a/NLP/16.8 BERT/data/test
+++ /dev/null
@@ -1 +0,0 @@
-
diff --git a/NLP/16.8 BERT/data/train.tsv b/NLP/16.8 BERT/data/train.tsv
deleted file mode 100644
index 6170fba..0000000
--- a/NLP/16.8 BERT/data/train.tsv
+++ /dev/null
@@ -1,300 +0,0 @@
-game 5000,ͶϷж!Ϸǿÿα Ϣ,һлĶ Ϸǿÿα!/ԣС5µһܿν߳𡱡رǿտպ˺ǻԵ¼(ͬѧտպؼ)µĽչ,˵Ůҵ߸迪5Wн,LV,չͶ5000,Ųù˾ʽҽƱաµĽչ,С57ٴη,ǻԵָ,Ͷ5000ǷϤˡݡɹԭί9Ӧڴ¼,С,ǡ5000W,ϷȦ,ٸ黳뷨ĴҵŶӰ!,ܶͶ,ͶϷͥ!һӭ!ͥ׳,ݲͳ,ϷѾ200ֻ,֤Ϸ˾IPOָڲ塣53,֤ᡶϷ˾IPOָڲ,ļϷ˾IPOļЧָꡢϢ¶ȸָ˽ϴĶڴֲ²֮ʱ,54,֤ȯ֤زʿ֤Ϥ,õЩžʵйزűʾ,IPO˹,ҵżڵҪޱ仯,Ϊй˾,Ϸӿ롱,¹ɷг̬ͬʱ,ˡϰѹءҲڳΪ̬ڴ,Сһ桱,֯ͨý巽ʽṩϢʱ,۸ġӡ鹹ϢһϢ칫52շµġϢ涨,ȷ˻ϢɡСල顢ε,ý롣ù涨61ʩСҺ,ڻû61աŰ췢¹涨,Ļ̨ġĻڹ淶ϷӪǿºܹ֪ͨѾʲôˡ201751֮,ϷҪжûʵ,ǿδϷ,ҹϷп鿨ǿĸʡ ΪӦҺ,ѾNϷ˵,N+1Ϸ𡣡ӢˡҲһκ˹սƷıʡʾ,սƷ,ƤĽΪ29.255%,ٻʦͼƤĸʶΪ2%Ϊûκμֵ,ûиܵôߵĽ,Ҿʵļ㷽۸һʵ,СһܹԹ!!!,λKhemist49eBayԶʱһΪѩӻƷ,۸ͦ˾ԺطоȻһšǼԡհԴ̡Դ1998,ԴڻܼϢ,ͨҼֵϡƷھδŹ̵,ѾҪλСƷˡѩٷ֪һ֮Ҳϵ,ٷŶŹ,Ϊа֪ʶȨҵܡԴҲѰ˷ɽ,Ź̽ѩ˾Khemist49,ȴ൱ϲ:ѩһݡȷ桷Ϸ,ֵ250Ԫս,֮ⱩѩרµKhemist49,ȥμӽıѩ껪λСΪòϡƷ,ջǾ黹,ٷΪ˽λСҲһݴȥμӽıѩ껪֪ԵϡƷô?ô,ɴ˿ɼѩٷͦ۷˿ǵġѩ֮ԱΪְ֡,ΪȫҵĹ,رڵӾϷǿǰܱйýѧýרҵ(ֺ͵Ӿ),ⲻ,ϺѧԺҲͲסˡ,ڡӾѡ2018żӴ˻Ϣ,Ϣ¶,ϺѧԺרҵ조Ӿ˵רҵڴ˻,ʽ챾иУеһӾרҵҳ,ӾͬڴϷ,ҵ,רҵĿƱһ顣ֵע,羺гȷ,ݱ,2021ʱйϷгĹģܻ2017260Ԫ350Ԫ(Լ2413),ɼģ֮Ϸй˿ռ44%,һ2021ʱ,54%,ʱϷйĻûռıӽ90%ǿ̺Ϸ,Ժܺ˽ЩȺ,һĻϷ,ϰʵҲһšʦҫΪ,ֻϷٱСС,PCηͥ,Щɿ̻,רɿר,˿ͶϷר,ԿģPC桶ҫ,֮ҲֱֻͨϷڲɵר,ûPC,Դֻ,ֻṩWi-Fiͳ缴ɡɴǰĴԴ,ȶģʽ,ٵڵġר,ɼҲʱʱеij! ˵ʱ𱬵ֻϷ,DZȻǡҫĪҶڡҫԽԽԶ.......Ҫ˵λСνˡý屨,ݵϴѧһҽԺһλΪҫշԹԺС!17С()ҫ˿,Ϊ˳嵽ҫ߶λ,ᴲ,ս40Сʱ,м3СʱֻСӦһٷ!Ŀ,ϷͻȻԼͷΡͷʹ,վҲվȡʶܲ,ǰخijҽԺн,֢״תϴѧһҽԺרҾ˴Ź̺,ȷСľԹȻСҲΪλϵͳ,òһ,һ,ǸͰˡڴ˻ϣеϷ,ֵͬʱҲҪѿغϢʱ,Զ롰ԡ ҫڹڿνǴ,˶мܲסջ,С,ҲϷ,һͦ6Ȼٷʾʰ,DzΪ桶ҫɷѿġ˷ǽ,ΪܺúõϷ,Ҳʹȥѧϰ,ĿijܸиõĹͨ,Ҫһ!!!ܹϷһȺͷIJ˼ѡĵ,СͻȻֱܡҫƵеߡû취,˭ȫһء,˵NԺ,ҫܹ롰ϷáҲ˵һ,Ϸá,Strongֲ2015,ýֻPCƻֻȫƽ̨ϷӰȷijɾ͡201754,ŦԼ˹صStrongݹһڻ,ֱ:ա:һս鱦:/̡͡ͷ2СصطһϷõƷ,СսʿGTA3ﴫ˵ո֮áԶˡPongģˡ̫ߡֵܡ˹顷͡ħ硷ϱĿƷ,Сʷƾõġա1981,Ҳǹï֮֮:黳,!Ȼ,СΪ,ϣгһܹйIJƷϴĵ!ϵϷǿⶩ:ֱӲҡϷǿ⡱GameTHKע:ӭѯϷǿ-˼˼ QQ:2819435219Ͷ:뷢 ed@gamethk.comϷǿAPP:1ϷǿŹںҳ2ǿɫ˵3iOSءءϷǿ201410,һڹϷг,ͬʱۺϷҵý塣ϷǿϷߡ̡ý塢Ͷ˼ҵʿ,ΪṩֵѶݡͨȽIJƷ̬,˫֮ʵ
-game LOLS7Χ̹˿ȰWEÿ鶼SKT ʱ915գӢ˹ٷ2017ȫܾΧʽ̡ΧLPLWEսӲμӡһWEķ˿ҲܵWEĹٲ¡̵WEҪÿһWEı23պ24աϢ2526ƱWE˿еץˣ϶뻻Ʊֵķ˿ΪWEͣWEÿһҪBO5һÿһֶҪSKTѾġ̡WEʵ˵WEҪΧͻΧʤ㻹DZȽϴģȻҪСġϾB01ʲô鶼пܷ̭FNC C9ȶҲǺܺôġϣWE˿ǽһÿһֶSKTԴɣ
-game LOLܾ: վPP, WEȫϰ۷Ұλһ 2017ӢܾΧ̸սãLPLWEսҲ˳뵽ܾССWEС鵽һС飬DϣWEܹLPLӦеķɡܾ105ʽʼLPLͣΧ֪֮վBEST.GGΧθλѡֵijPPַ֣ڰУWEսӵԱȫϰ֮سΪΧǿսӡϵλУWEսӵȸ957ƾԼȶϵռϵĵһWEսУ957ǶΪȶһλãȻʱرʣȴ˷ġΧеĶʵԽ957֮϶Ҫ綥ϵʱʱڴҰλϣСԾǣ۵ı־ȻûһֻԳ165ppֵڶһC9ĴҰˡWEΧ7ֱУCONDIеֱmvpһGMBضƣ´ľͰcondiΪ۵Ļ̭ڶУezҰһɷ̡СൣĵǣȻĹâezҰ·ЧòƲWEսӻҪһ£رʱѡҪء˫Cλϣҹеѡڶppֵߴ186WEսӵADCѡmysticppֵΪ193ھҵADѡеWEսӵ˫CȷʵͣɱΧѡڶ͵mysticʵȶԣСûֵͦģ·λ˫飬еѡҹ֮ķȷСൣĵġϾܾУܶսӵʵǿѡֺcarryĵ㶼еλϣҹܷסѹԼΪԷͻƿWEȡʤĹؼڸλϣWEսӸԱϰZEROһBENġڸλϣWEսӿѡZEROѡִḻ״̬BENѡΪͶı֮࣬ĥĬáϣWEսеıܹù۷ٴǾ仰
-game ҫӢ εè ڴһϵӢ֮ҫڴƳ͵ԭӢˡڸոոµУҫһèӢۡ档ӼϿӦһϵŲԱķϵӢۡ Ȼأļȴйоأһ+ܵϡ ͼʾıĿǰΪʳΣڼƶٶȵͬʱչѪֵܷΧȤǣСЧʹüǰʹú棬Ļˮ⣬ЧЧҲչ϶Ҫ棬Ҫ似չνӡ һΪξƣ˵ʵһʦܣеĵıܱ֮ģܱʱɷ˺˴ȵļ١ȻĿǰٵʱֻ1.5룬ԴƤķʦ˵ѪҲһ˲¡ ξͬǸȤļܣӳȥجλ˺ͼ٣ĻܽաҪجˢ˵ҪӢۣҪú÷ÿجεջʱˡ ӽϿξһԴλƵļܣͷŴ֮ɷ˺ͼ֮⣬ͻᱻλƽеĵشĴĵ˴ɺ˺ЧҪעǣмĵجȻԻգԣҪȥôجεİѿؽǹؼ Ŀǰҫٷδ¶½ʽȷʱ䣬ҲֻΪһӢ۷̽Ӣ۵ĵ½¶һźţҫڼӴԸԭӢ۵Ĵȡ ôDz½èһӢ۵dzأ
-game ջһֻ赮 ȸлСǵ֧֣ǰĶ⼼ܹĽܣ˺öҶĽԼϳ裬һӾĺϳ裬һ4ֻһֻǶһĺó裬Ǹ߳ɱϳ裬ĽѾˣ1&1ϳ裬ûظŶһֻͳɾˣɳ1.3ҪըˣڶֻҲըˣȻֻ2ظ7+3=10ξͶˣ˸10ܵijɾͣһӾ͵õ2ѵijɾͣϲңһֻֻϵĺÿ5+5ȴ2صڶֻѾõ10ܵijɾˣصʣɳ1.268ܸߣŶòֳ裬ǵĻⷨҪˢµˣʣλ34ǵ10341534أ𰸽1534ŵķһˣŵһľǼûأǰĸûܣⲨĵĦУһֱӵˣϲDzǿѪڣҲһ¡ྫݣעλεһţͷĹעťעǣǻÿΪṩʱȤλݡ
-game LOLѡUZI ˿²ֳۣ һλɵĴϣDWսӵĴҰѡLPLְҵѡUZIûӡ̶Сʱ֮䣬ٹڵ²ۡϾŵʱһλɵĴϣDWսӵĴҰѡLPLְҵѡUZIûӡ̶Сʱ֮䣬ٹڵ²ۡڽıǶĿãC9DWΧУC9ҰŮDWҰ֮IJģ˴СһҰϸϡһC9Ұǰʮ飬ٶԱһDWҰǰʮӣڱʾһΧõˣˣUZIǹˣȻUZIıбֲ̫ãѲǸƴ꣬ϸĵ˶֣UZIڵĴƫŶӣŶԼԾС֮ԴãСUZIҪͬʱUZIܻὫԼDzԴøСǴҶܿ顣˵UZIûӣֻ˵жûпˣ
-game ̵㼸ҫϷҫܻꣿ ԭֻϵ̰ߣɫħֻҫֶҲֻܾ̾ԽԽˡǵDZҫ֧Ŀ־ÿᣬķϣֻܿҫˣڵֻҫNOЩϷܺܶ˶ûһǾƷһɡ1ַųԼ̶ܶصбַʮֱijһֻġɱҲһ㣬˺ܶҡ2ԪͨѶһϷҪһֱѡشйͨԿп罻Сͻ3ҵϷϷ˵ϷˣҪҪͨŬȥҵȤСȥһԡ47һ߶ɵĽðϷ7ǰʧȥ˼䡭 ΨһûǵģǸԼ 7㡭 Ǻֶ벻ij˵ԼΪȡʧȥļƬ Ϊһ춨µԼ һصС5һ߶ɵ3DɳϷûеȼƣûض淨ֻƻʹȤ;ԴһУҲһȺСսĺڰֿɽˮı硣6̰ߴսǵͯṴֻ̋ǿĻ䰡ܻҲ̰ˣ淨࣬ҪͨλñײϡЩϷǷdzȤģҲõĶѵͻȻһϷMAXϷȻ棬ǹѧϰҲҪˡҷֻϷôҷһPPTģɡ·۾ͣҷģС͵ġɰ칫ѸPDFת칫ļת
-game B:Ҫɵɧ!حBBƷ Сƹح滳һͬ¡ ƽʱҴNS˾,ʲôҰ֮Ϣ,ôŵϷ,ûҡ B粻֪ĸһָ,˾ըˡ cһ20,תһ,ͷۻ ,˵õϷں?Ϸ,Ȼȫֶ?벻,ݵ?תһϷ? Ϊ,ר,ԭⶫô! 94걻05,С桢桢80ϴүҲ֡ youtube400WƵ˹רдƪ,2017رİ칫ߡ(û,ͳƸаǸ) ˵ָ滺ѹ,ƽ ҿdz,ⲻϴү,ı ǸʱС,˻ ⲻ,cһɶҲûд,ϴ硣 Ȼ,ЩȫBĹ,,ҪռҵƷר,ݶ: ʲôָݡ ͷ!B̬,еʵû¶ɵֵ,,һ(Bһ,۵ͷ) Ҳ,Ҳû......ٺ! Ƶ! һ,Ϲء ϲBĿȥBվռ,,ġɶ,ɾڵĻ(B,ÿῴ)Bվռ,Ķԭľˡ ɶBС,Ҳԡ ʲôȰ㰡,B߲ܡ Ʒ˺ҽܷɻ.......˺þá˵B, ,ʱBB,¶ϷլҪ~~~ ظBB,ÿһϷ
-game ĩһΣ7.20ǿLOLϷӢƼ λСҺðѾųϢȭͷʮһ·ݽĩ㣬ȥǹӦûʮһѮ㣬Ҳ˵㻹вһµʱ䣬ƻвһûԼǵĶλɣģǾƼǿϷӢۣǶ7.20汾Ϸֺ֣ÿһdzáʿ 7.20汾ϵӢۣѾü汾ͳϵˣԴڼǰıһֱdz˼ЧֱԱøǿֱڣкܶҲ˽ӢۣһеͷֶΪԣܶ˲˽𣬸֪ôӦԣһЩսʿϵʱкܴƵģرһЩϵEܺپܳķݵˣںܻӣdzôЭҰ˶dzǿ̹ܷݣһdzϵӢ֮ۡŭ ɪׯݼȻǿϷӢۣǴҰλһã汾ûбøȶĴҰˣڱ·˾֣ıֶͳμģÿ̹˴ҰҰ죬ǿ̹ȸߣǰھ;вgank̹ȸߣܿܶ˺ǰݻϺݶdzͿͽ֮þͿԳʱ䲻ؼңһЩСײ˿ҪؼҲпͽȫõģһӾͻˣþdzͽҲdzܿڱĴڣüڿʱɱ̹ȼߣһҰôСԪ еھһ֮ջǻصϣȻ汾еǿӢۣDZ·˾֣ͳȻǿơϵѹǿ߰ԼĶ·裬ֳ˺ߣǿ£;еҴҾ˵кcarryѡֵװ˼·߷ñӷЬֺƣ+ñ˺ߵıըWܵʵ˺˵ˣ汾е֮ϷʹӢۡ ˹·Ѿ7.20汾¯Ȼ¯ijִ˺ADijߣADУȶӢĪСڣڰǿڶıУBPѾݱɫһֱСˣ֡˭С˭ӮĸоȷʵӢСȻûĴбը˺ҲûдWܸ߶İٷֱСеľͿӢ߱ģСڿԴ࣬ٽԼǿڣӵСڵսͷdzˣС汾ȶADӢֵۣһáԴMISS
-game Ѱɡ60װ65װԱ Ϸװѡȡ ںܶѰ˵Ѱ³ĺɫװİװ˼װֺɫװȽְҵװװԸһЩһһЩսӡ⣬ԵһǣװԶһʯװĿףɫװܱڡһλҸչʾһװְҵװԶԱͼͬ70ñӣװñӵľӵ˳ƷԡӵĻļͬ2.2%ְҵӵŮ̷ӻ˺ĵֿ2.5%ͬ70·ս500֮⣬ְҵԸӺһЩھϺװռơӸоôԣǮӲıʤ֮⣬װ졣ЬӵĻԻDzȽϴġξͲ IJģ˲ࡣλҸĽۺǣʵǶףƽֱӻ70Ϳˡ
-game øSuper Mario Run½ɫģʽ ժҪý929ΪiOSAndroidϷSuper Mario Runµĸ£нһµ磬ģʽͿѡĽɫø½һֳΪRemix 10ģʽԿشϷؿƴ10֣Ҳʺ罱¡10ֽȹգϷѡɫҲܹһΪ֮ǡ磬аŸ¼𣬵˺һЩϷơθ»һЩСС£ҿԻµƷĢҿϷʱԼ֡Ҳ9291012ڼ佫Ϸ۸ʱһ롣
-game ҫ16ϷBUG ȫ˵ӦȥƱ! ҫϷп϶BUG,̵ҫз16BUGȫ.... ȥƱ˴ֵ!һû... 㻹ǸȥƱֵ!Ȼ˼BUG,ǵԷŶ~о!ҵijӢô?û˸߹ ҿ?װᰤ?С......о治ĴôǮ??ɹ....?ȥTMDĻ!ͼûëôӻ??4ôɱ?½ĺŰ!!û?û ˭ǵһ??ôļҿ?Ϸwww.putaogame.comQQȺ:١Ⱥ Ⱥ:428433456 ֱϷƽ̨ ǧֱϷ
-game ںSLGMMOλƻƼ+4.5ֺ ϿעҡJҵûXҫûXʦ2014꣬桷дʱһδ档źܶүԡ桷Ҳӡ봴½ϵİ뼴ʱƿ淨һʱͷȽġũҩΪȨ¼ܣղòС桷桷Ŀ˿ûоʹֹǣųƣʱ䣬зһ־ĺԣţ 921ڹʽߡϼ֮ܵ˸ƽ̨ĹעAPP StoreBannerƼλƽ̨ҲͶ൱ƹԴôõĺԣָҵհ汾ǸϷأ淨ϽSLGMMOд˵ĺ淨ȽϽӽSLGҪԼijDZأ̽ĵͼϷĴµҪڰ뼴ʱսͽMMOĽģʽ档SLGɲӢ۶սİ뼴ʱս塢趨⡶ħսһЩȦɵ¡ͬSLGೣĻغϲԻֱսħսеӢ۲ڡ桷İ뼴ʱͷżܣСΪսʽ֡⣬֮ͬҲ趨˹ϵǹƲеλȵȡԣڼͷʱѡͲֲϣбȽϸߵҪȽֵһĵطǣں֮ڵĸ¼˸ͱ֣ԡħ硷塢Ŀ趨Ϊй+ձȵȡͬиԵ幥ƽ⡢óҩȿƼ/ʿȵȣ佨ҲͬҿԸϲѡ֮תMMOǿPVPҡ˸ǿֵӰ鲻ѳSLGΪĴ֮⣬ڽҲЩ¡ϷǿҺ˵ĸóͼͬһҵϷҲĹҺˣCOKH1Z1˱Ŵ龰ϷҲ̽ͼҵңǵжԹңԷս˵ܶүҲѾϷıڣָ봡ǽԪضԴƾϴӣҪΡ̽ͼȡԴӢͨ䡢λãֱӾ˿IJǿƵӢۼܸǿսң˶ԡ봽𡱵ĴPVPΪĽģʽһ˸εۡƽҵIJ࣬յ˲ٲ֮IP淨ͬʻгϣԴƵ˿һĴ²ƷͳЩһġҺձڵָ봵⣬ħܵ˵ֵү飬СС봳ʼɡϷƣArt of ConquestƼ̶ȣƷпɣ淨һ£ζȡ봶ȸߣԣƽ̨iOSiOSطʽApp StoreɰطʽءȡϷҵ˾ڲġӭ·˽ࡱĹעǣϷѶϷȦİĻŶ
-game FGOӽ̳ ͺĸЧǿװ FGOװǿԣӽ̡̳Ӿþ̳СݵȼQPȻɵĵͺǿ»λӦöмʮˣôһǿװĺûᡣ(ߴӵԺǵװһǿ)Ӳ裺1.ǿѡ1װ20װǿA*20ǻὫװ19Ϊֹ˷ѣ20Ӧٺһͻơ2.ǿѡ1װ20Ӱ˳15װ+A+4ͬͻƣA**ʵʲУͬͻֻ1-2ڱⳬޣ17+1+2ɡ3.ظ2ֱû3װ20ӵIJ֣öװB4.ǿѡ1װ20Ӱ˳15װ+B+4ͬͻơB*5.ظ4ֱûжװ20ӵIJ֣һװC6.ǿѡ1һװ20Ӱ˳151װ+C+4ͬͻƣC*7.ظ6ֱûһװעÿζ20ÿζڸ1װιЧʵͬʱʡǮʵʲA*B*C*ںУһԽͬͻĵɡҪԻ֣ΪΪԲؾǶһǵ˳ֻҪ֤20Լ·Լʱ䡣ʵʲʾ
-game ۲ | ۾ȲVR ŵ91 ʵгĿǰȴ˵ԣӲ۸ǵԵԭ֮һΪ˸ıгԣVR̡ᡢHTCOculusѾʼۡ VR̵Ľ۱ΪȡůͼҵٷŻıͨ۴̼¼VRгӿƼʼûкõVR֧ţ۶VRҵķչûʲô塣ǻΪһõϷõIPȥϷƻVRһЩСϷĻͺѴʹûVR豸VRҵһֱͨչгռʡ ȲVR 829գụ֣Ϻ˾91й½PlayStation VRPS VRװµ300Ԫ2999Ԫҡ821գHTCҲVive۵Ϣԭ6888Ԫ5488Ԫҡڸ֮ǰOculus Rift399ԪԼ2630ԪVRͷPS VRHTC ViveOculus RiftƷ ƷۼڻǿһVRͷԽôݡ917գ߷λڻǿ¥ļVRר꣬ɢ˼VRר꣬оèƽ̨ǰUGP Ϊ߹UGP۸˸Żݵļ۸èƽ̨ۼΪ899ԪVRͷֻҪ750Ԫ1980ԪIJƷ1000ԪͿڼ۸Ĵò۸˳ƣΪǹļ۸Ҫ UGP۸˸ߣVRͷ1.7̨ңȥձ89̨»Ƚԡ ΪVRȱƷ̼ߵĹ顣 ȻкõVRҲҪõVRӲΪ֧ţĿǰVRӲͼûʹʱѣ⡣ϷΪΪ˱֤VRϷ飬VRϷʱһ㶼ڰСʱڡVRϷﻭڶʵûжʱ䳤ûһѣСЩʱϷdzã豸ﲻҪĿǰVRϷʱҲʮӡ;Ϸҵܾڽܼ߲ɷʱʾ ұصVR豸ֻ˵ûҪͷԡ/Ƶ£ҪһΧϰܷˣ ӲݾǮ û顢ݵȱټϸ߰ļ۸ʹóϷҷ⣬ͨ߶ڹVRƷʼȱ飬VRƷCгĽܶʼղߡĿǰϳֵϷƵҪСΪߡ ܣVRCʲߣϷƷϣܶϷ̸Ըȥ֮ϷĿǰVRϷǰȽϺõģҲǺзͶƽǮĺ٣Ǯ һ㣬Ӹ֮ǰFacebookɢOculus Story StudioͿɼһ㡣 Oculus Story StudioƾƬDear Angelica͡HenryʵƬŻУʵƬDear Angelicaʥ˹Ӱϴʣͬ9¡HenryֻðԭĿʹOculus Story StudioΪVRҵĶҡ VRǸOculus Story StudioǰһƷLostʱʮȴ1000ԪFacebookԸó5000ԪרϷVRݵĴǮֱͶҡFacebookɢҾ˴ǰڲVRݲԵʧܡ ߴҵʿ˽VR̬ϵҵӯ״롣ĿǰйVRӲҵࡣVRʿڽܼ߲ɷʱʾֻVRͷĻԾгϡӪƷзҲļҡ ӢضϯִйٿΪVRʽڽΣ˽Уϼ£·ѭսγѭGartnerҲڡ2017¼߱桷нVRλڡȲĹڡVRʧĵͳѾȹ ʾVRһڵķչͿԾʤġֻ˴ӴܻٵܻΣм˴Ŷʮʱ䡣ʵVRҵΪVRʮ굽ʮʱ䣬ڵһζû꣬ҾҪеġ һ棬ȻھͷBATûнVRսԲ棬Ѿʼ͵VRǰġbuyǰٶߵVRٶVR+յVRӰӣԿЩͷδҵͼVRռһλá : IJ ЭȨ תעԴ http://www.nadianshi.com/2017/09/182694
-game ҫߣάֻΪ գҫӭ£İ褼ĿصǵСڴǰСһ°褣ȻûλƼܣߵ˲䱬ʹΧAOEܻǰһзŵĺãսе˺Ҫڸ߽!褣ڼǰҫӭһζݵʱάάݺȷ褡Ϊιٷ˻ǵ?ǾǰԶԱȡܣ˺135(+9*Ӣ۵ȼ)(+0.18AP)125(+9*Ӣ۵ȼ)(+0.17AP)1ܣͨɢĻ˺135(+25/LV)(+0.18AP)125(+25/LV)(+0.17AP)2ܣֱ˺270(+50/LV)(+0.36AP)250(+50/LV)(+0.34AP)2ܣ˺135(+25/LV)(+0.18AP)125(+25/LV)(+0.17AP)εĵпԿ褵˺Լܺͱ˴ȵ˵DZһ֪λСΪôǷѡϷ?
-game ۲ | ͵У羺ѡԲĻ 201791617գһƶص羺ΡĻȲҵٷչĵ羺ھؽŵؽţȫ͵У羺ѡΣԾʮУ֧սӼͬʱչʤ߽͵У羺ܾ922ںӱ͵չս ͵У羺ѡηΪվվӱվվΪ⣬վΪĽŽձվսӡվӱҵѧսӡӱվھְ̨ҵѧԺGDսӺǾְJWKսӻսʸ922ասںӱһͬϲ֧ʤ飬ܹƾԼʵŬԼĵ羺θһڴܹܾӵгɫı֣Ϊ羺Ǵ˶ĸУ羺Ծ վھս վھӱҵѧ()ս ӱվھְ̨ҵѧԺGDս ӱվǾְJWKս ǿ֧֣ȫУ羺 201792123գ챣βҵչὫڸ߱(᳡)ˡ³ͬʱСʱΪ÷ҪԪصйҲͬʱٰ죬龫ʷ׳ʵĻĿɫĪں͵羺Ļڰ顣 Ϊ͵羺ĻڵҪɲ֣ɺ͵ҹƼ˾Ͼٰĺ͵У羺Ŀǰǿĵ羺Դ˾ĵ羺Ϸ˳УѡθǽĿǰ֪У˸ϣ廪ѧһѧݷݷѧһãĿǰй羺ȺĽ ڱվ±УվսƾļĬŶϡѵӦ䡢Լ϶ӳӢָӣճΪվĹھΪһ֧ܾı顣ͬʱվӱҵѧ()սӡӱվGDսӺJWKսҲնճΪܾǿ顣 ܾУ֧սӽ뼯ӱ͵ģһѧĶ羺£ھ˭ңעУ羺µIJӱֳһͬעⳡעдʷĸУ羺 ɫƶй羺ҵٷչ Ϊ״ιٰͬĶ羺£͵У羺ǰʼܵй羺ҵĸ߶ȹעƾǿԴͶɫ͵У羺ȻΪĿǰйУ羺еĴĴɫdzΪй羺ҵһ羰ߡ ͵У羺վ± 1һ廯ڵ羺״ʵ 챣βҵչ;һ廯ߵĶ磬˴κ͵У羺˾صԴɺ͵ǣͷ״νһ廯սĿǰ𱬵ĵ羺ҵںϣھ˿ȵĵ羺˳ 2УԴ ͵У羺ڶɫ˾ʮУIJ룬иDz廪ѧѧУ˾صĸУ羺ȣҲΪУ羺εĴѧṩ˶ĵ羺̨ܹ֮·ԽԽ! 3羺ǵǿ ڼĺ͵У羺У췽˶ֲ˵ֳսӺڻӴݣн˵αΪCocoܣŹעLOL羺һеİ ֪羺Ů˵Coco 4רҵĵ羺ӪŶ ǿݣ͵У羺רҵĵ羺ӪŶӣܵıڱƽΪ羺ǴרҵıֱһʮĸУ羺 5羺Ԫͬʱ ͵У羺(͵羺Ļ)ͬʱеĻк͵ʶչֳڿԽܶԪϷCoserֳܻCosplayӢ㽫Ϊ͵羺Ļڵһ㡣 д ͵У羺ɺ͵ʺͰҹƼ˾Ͼٰ죬922ںӱٰܾʱ͵ʽڵ羺ҵͬһΪй羺һɫĶУ羺¡κ͵У羺ٽ羺ҵٷչƶ羺ĻСɣӶص羺ҵٷչƽβҵŬʵԴʡβҵǿʡ¿ԽΪϵҪĻġ : IJ ЭȨ תעԴ http://www.nadianshi.com/2017/09/182514
-game Switch4.0ϵͳӼϵͳãҿû˵ 1018գSwitch4.0ϵͳϵͳ˼¼תƵȡڴѾá¹ܣһЩϸĵҷ֣ºϵͳгˡ/English͡/English ȻֵעǣⲢ˵ýϵͳСԺԷ֣ѡʵΪӢĵIJϵͳνġġ롰ġʵָǸϷе趨ϵͳҲΪʲô˸/English ͼƬԲ NintendoSwitch ʵڴǰþѾSwitchϷˡ£˫ȺϷֻͨӢĵIJϵͳ鵽ݣҲΪҴһЩ鷳˴ڱʶϵĸҲֻΪѡȷѡֻڷϵͳ£ӢϵͳſᵽݡϵͳĺĿǰٷûиصϢ־ҲûᵽѾΪСҲԿһЩͷϵͳҲ̫Զˡ ǰNintendoSwitchҲйغ ȻС⣬Switch 4.0ϵͳĸݻǷdzҾϲģУ¼ܺתƹܵļDZθµ㡣 ڹٷĸ־пԿҿµ¼ܶϷݽ¼ƣֵעǣֹգùֻڡﴫ˵Ұ֮Ϣ8ARMS͡սʿ2ȫʹá ⣬תƿǺܶSwitchҵĸҿͨãϢ浵бݡתһϵͳУʹһɱͣͬʱҲԸõϢİȫԡ
-game ʦҪũҩ棿Ǵһҫ ʦΪ16ıΣһ߾Ȧ˵ҪʦMOBAˣѵҪҫսĽ˵ǣ봲Ҫ˵ֵҫֻӣʦ˵İְ֡Կ˸ΪϷƷġʦ˽ֵĻ硣ԴϵĹ磬ֱŮͨԣͼDZֽҲɽüֱdzмƷȵֵըʦеĸ߸˧Դţөݰְ֣СȤϷĻֻһ佨飺ǧֵӲεĺ㶮~εıй¶˵زͼǡʦMOBAɡеһЩӢ۾Ϥʽ磬ףȻôġû;֪Ǵ̿͡εĸӿ϶ǡϿȡ֮ĵͼˣMOBAϷijսͼӰǴ칷ͻҹ 䣬϶ǸͷʦˡʦȻǻغƵսǷʦ̹˸ȱһҫϷҿ϶ҲˡҾ˵ϷǡġƽսŶ꣡ԼţôСǣڴʦMOBAôྫʣעŹںţwzry365
-game ʦ죺ȥʱʦߣʱʦڷ 죬ƻ̵ϸʦappʱλԵȫΪлҶȹһЩʱ⡣ᡣȥʦԺһʱʢǰ˵ʦӪòƵĽƣϵʦۣתһȦʦңʦĸܱ߲ƷߣcosplayְסһΨ磬÷ϷôھԽԽأȥ10ʦĿӡҶôӵġҼǵõʱϷʱûô档ʱݡһõµĻ磬˲һսģʽҿʼʦĿӡ죬賿4˯Դ˲ΡصԺӷÿ춼ֻ棬ʱڹ֮ȥҲʦһ¶ϻؼңȻҲdzʽս浱СһĩǾ˫ʱֻһƻһСףһһͨˢʦĵĪڳʽˡעüţΪ˳ʽһеSSRС¹УʱֿļDzС¹˺þãżٵϲ쳣ġֳ˻Ĵ֮еƵSSRڹǶʱ䣬Լķ˰ʦڴʱҵˡʱ172·ݡҰҵĺŸҸ桭Ҹ˵ҵС¹Ūûˡӽ2·ݿʼұҲʦˡڣûȤȥʱ䰡ҪȥҪһЩ㵱ʱΪõĶҴǰϲħ磬һ档ʦħIJͬնʦϷģʽǽɫģʽħкܴIJͬûʤڣʽҲȱԷḻĹ£ĸоûжݵġÿ½Ϸ˳ʽܴһЩȤ֮⣬ĺܻеΨһȤijʽijȡҲǵ͵ÿ£죬ʦ죬½šƺʽȡSSRʵһЩȻһûκһȥʱʦߣʱʦ죻ʱʦڷҪлҶȹһЩʱ⣬˵һЩʱ⡭д201792723㡣ڶĺšսƽɡȨУתϵߡ
-game LOLȫܾSKTSSGս̨ƳʵٻʦϿ ꣬LOLȫܾľ114վСǰʱ䣬ѾѱϹڸLOLȫܾijغͶս̨LOLȫܾľѾӽɣҲѱ˸ɵLOLȫܾijغ֧SKTSSGĶս̨ѱϵѾɵľؿSKTSSGĶս̨ϯ̨棬λڳ롣ֵעǣSKTSSGĶս̨ƳLOLٻʦϿȵģSKTSSG֧Ķս˫ˮأ·ߣмкӵ˫ԵҰҲ˳˵˫Ķս̨ƳٻʦϿȣҲˡǣܶLPLҿﶼЩᣬΪܾûLPLӰLPLȴ֧LCKսLPLȻͷɬ
-game ҵϷ˼άӪ Ϸͷź:gametoutiao()йҹʽý嶨Լýݵ:ϷΪˮޡ,ӳϷDz˼ȡ,˳ϷDzҵ,ԼϷ,Ҳؿ,̲סӡ˳Ե״̬,ʵӪռĿ,߶ƷơΡʹϷӪĸлӪĸͨϷ̬ƺȥ,ԵϷȥ,ȥ֪,ȥĿ,ӶʹתΪDZ,һƷƻл ϷӪĺôϷӪҪܹͬʱﵽΡ䡢ϵûרעԼû֪ĿꡣÿһĿ궼ּΪṩϷĹ,ʹϷ,ʹû۵桢,Ӷ߲ƷҵЧ档һ,ϷĹɳΪ˲Ʒûֱ֮ӻֻϷͲֻһĻApp,һעеý塣ûרעͶ뵽Ϸ,ƷͨϷȻĹ潫ѳ嶯ݸ,ҾͻDZʶγɸʵĸϷĹ治ȴͳӾ,ܸû߳еΧڴϷ,沢Ҵ,ڹʽϵĴɸͶŵĻرʡûΪһ桰桱ϲ,DzŻעҪݱ ϷӪµ˼·1Ϸֲ(In-Game Advertising,IGA),ƷƺͲƷŵƵϷ,չʾ,ֱӰ쵽Ϸ淨,еӴû,ƷϢ2ƷƶƻϷ,ΪǶƳAPPϷSNSϷ,ƷȫλϷ,Ϸ۵Ʒ,ͬʱƷƲƷΪ,̼ҵIJȡ3ƷϷIPCo-Marketing,ƷϷIP,ԽƷֲƶ,ƷIPп,ȿ,ھIPӰ˿á ϷӪԱʵӪϷһ,ҪѰһȤĿǶû;ҪڹһЩջʽԪû;ҪûѰйӶڵúõӪ,úõϷһ,Ŀû,ӶΪṩο㡣ϷӪĺڶԱʵ,ؼǴٽû,ĿԶûȤ,ǵڶ,ͨⲿֶδ̼,Ӫֵ,ӶӪЧʡϷͨмԪ:ȼսʵ影ƷȰеĻضӦ:͡λɾ͡˱֡1ϷԪ:ս++ҵ˷ܸʶ,ͨԼIJŬ,ԾԼڻ,ҵIJĻԾˡ,ܿʵʱ,òִ˲ƣȥȡýϺóɼ֮ʱ,ܹȦзչʾ,ȡóɾС2ϷԪ:+ϲ+šܡɹ,ҲdzϷ˼άЩ϶Ľ,ǸϲϲĽ,оϻ˴һ,ڵĶͰ,˿СΪġȷľϲС,ϷС˹ϵ,Ǯ,̫,Ƕ˺ܶȤԪء3ϷԪ:ȼ+ʱ+Ȩֱڻϱ,Ҳ˲Ĺ,ҪһƾǡֱĿˡͻ䡢ͧ,˸ʱ,Ļϻͻʾ,һʵʱ,лߡϷPBLʱϵͳ(PointsBadges¡Leaderboardsа)ۿֱܵʱPBLĴ̼,ʱ,ֱֱ,ʶ,ĿС,ﵽԽԽߡЧFrom:ϷϷͷ:Alex_Xu_JwxdͶ:alex_xu_jxwd@163.comעϷͷ ԭ*ֵ*۵ ˽ҵѶϷ, Ķԭ
-game ϷһȰ | ƪ̫ܻӭ,ϰ ýƽ̨ϷһȰ811817յݯ!,ϷǶڿʲô͵ºͶƵ?ѶϷƵڴ,չʾһ/Ƶ,ҵĽ,LOLȷԼͷݵİλ,TOP10ռ7ƪ,TOP1Ķ˦TOP2Ĵ30W+Ʒ,LOLѲһϷ,ĵ羺ֱֲҵ,ϷȦĸ,˺֪ܶѡ֡,γһȦ,ý˵,ھĽǶȡɰԵҲġ,LOL¹Ȼ,дLOLݵýҲ൱֮,ν,ҪԼɫ,ŸӱĶԭġɲ鿴ĶNO.1:LOLص֮һ¶,ôС¶жԶ?,ȻܽˡLOL/ҫа,ȥ2ϷķѶ֮,ûϲʲôĵ?ܵġLOL/ҫа,Լȶƺ,TOP5ûзӰ,ǡŮǹġCS:GOռ˰,ŮFPSϷһֱҶעĵ,Ů+FPSϷƺȡ1+1>2ЧɡDNFһֱȶȵĻ,ǡLOLáƪĵ¾ܵǰʮֺ,һԸƷݼġ֡ƪ㷭ա½,STEAM϶һۡȻûзԼ,Ϊβܸһλᡱ,žûϲԭɡϷƵһ˫ϰ,NO.2LOLǴҹעص,¡ϷȤµȶǺܺõزĵ㡣LPLļչ,LCK,ټLOL6ٽ,ݵȶҲ֮,S7йսʱ,עȻһ¥Ϸ֮Ծò˥,ڻ۵˱Ƚ϶,Ϸڴ,պ,ýӪкܴڡһȰ,ýƽֽ̨!ÿTOP5н!: ͼܰ: Ķǰ5: NO.1 300ñ NO.2 200ñ NO.3~NO.5 100ñ LOL: Ķǰ5: NO.1 300ñ NO.2 200ñ NO.3~NO.5 100ñ Ƶ: ܲǰ3: NO.1 300ñ NO.2 200ñ NO.3~NO.5 100ñ ý,ʼ beckywei@tencent.com ȡϵ,ͨĽˡ ýƽ̨,ӭλפ!½ om.qq.com ע!
-game Rookieл˿ңҪжˣ ȻS7ȫLPLͶƱֻ˰ʱ䣬ȫͶƱ˵һҲؼʱ̣ΪҶͶƱڽɣµļֻһЩɢɢͶƱԴĿǰƱȷLPLȫǵݡеλõľΪҵģĿǰrookieҹԼСƱֱǰrookieĿǰ38.4%ʱ߾еһrookieȻû뵽ԼܻôͶƱڸոգѱrookie˿ȺԷ˿˸лò˵һĺ~ȻĿǰյĽǻ֪ǿórookieη˿İҲǷdzĸжrookieS4ĩLPLһֱIGһˣ˵LPLûиƭ˵ģЩļҲڲϵĽS7ȫȥĻҲȽͬϾIGѵе֧LPLS7ܾ飬ⲻǴѣ
-game ̵ȭŮԽɫΧ һλŮ Ҫ˵ʲôйʱϷǼ̵Ļ䣬ôFCϷͽֻԿԽǰףFCԲ˵ʹɽկСһЩϷҲֺһ١ֻͬDzеİҹɰ루ΪǸʱڣҵĿڴﶼûжǮġǸʱĽֻϷжԸϷΪڸϷУߵĵȻȭˡ ȭеŸָĽɫȭʽ綼֪IJSͰһУŮԽɫĻһЩûнӴȭʵҿֻ֪֪衣ʵȭʵ統лŮķȫȲ֪鹬ŵ ߣ163CM أ49KG ΧB83W57H82 鹬ŵȳdzSNKϷսʿһӵгձŮӸż֣趨Ⱦͻ˲ҵע⣬䳬ŵȹתáԸ趨Ͽʻã֪Ƿϲλ崿Ůأֶǧ ߣ169CM أ52KG ΧB85W57H84 λ縺ŴٶȷӡһԼSԹΣǰǧףΪԸ¶֡ǧdzʱҲͦˣвʹùս ߣ154CM أ45KG ΧB75W54H78 ڡ֮ȭȭʡϵϷеdzɫһγ֮ȭУKOF96KING ֪ŮӸӲμӱλŸβſֵװŮȻʱ䲢࣬ȴҲʵʵǵӡĶ ߣ173CM أ68KG ΧB92W63H87 KOFŮƵĵط.ĶȴܱΪKOFͷ˱ʡȻûȫ¶ò.ȴ˲һ"һ"ĸоΪʱװģòȷʵKOFκŮԸңǴߵ֮һ.ҲĶ𣿲֪ ߣ165CM أ48KG ѪͣB ΧB89W55H91 Ϊ֪ȺܸߵIJ֪裬ܻвҲ˽ɫԭ֪ͣ鷿ԭϸ佭βԭԷʱŮ˶żű¶ԸеIJ֪ʵȴһӵԸķҲǰһ³ ߣ168CM أ49KG ΧB88W54H85 λСǸ顷ĵdz18дģȭ֮еdz֮⣬ҲڶǴ˵г̨֡ҲǷdzһ㣬ڵʼʱе˼Ϊ̨һһhĸо23333 ߣ168CM أ53KG ΧB82W56H80 ȻǼˣȭзΪŮԸҡԱĴȽ϶ࡣ94KingͲ֪һΪӢ״εdzҪ˵ĻССӡžǣKOFŮƽȵĵطһ֤ŮҲѷ˵ĴһdzҪսʤԼִŮӡ ߣ177CM أ58KG ΧB88W57H87 ¬飬ĸĽ㣬һüһ۶˷顣˳96չֳʵжıɱѹԵĴٶȣϺ֣˼ߵIJпòһơ ߣ168CM أ300 ΧB92W60H89 Ź־İúõһɫUC֮ضkof14Ĺٷ趨ʹһдģ֯NESTSĸˡǡȴʹķʽʱ˵ܵСЦкܶ࣬ĸԡԿǷdzܹٷϲģΪǸˣظߴ300ⲻܹ˵ŶȻᱻɵ~ ߣ160CM أ45KG ΧB77W54H79 λʹйȭŮ糵ijdzҲڶǴ˵Уںkof֮ûбƻ˲٣ʽƶԴ¼ʱҪѭȷȤ鷳顣ڡЩձձóԵĶڵأɵ ߣ169CM أ48KG ΧB81W57H83 ȭ2000СBOSSҲѡеѡ˽ɫͷɫģֻսʱɫɫijֱ䣬ʱҲʹã˶Ľ·趨ǡKĵˣĪؾͿʼˡ˫Kɯ 174cm 58kg Χ: B90 W58 H86 һλ֮ǰĶͬǷ岼ʲĺᣬܹʹùսңԶ֮ΪжԹϵԸƈЦͨҲDzٴɫ Ҹ㣬ʵӦͲSֲ¡ Ȼ˽ܵЩɫ⣬ȭʵлǣϲһأϽԺʹ۰ɣ
-game ҫ¹ϴΪüѧ ҫѾԲ!ǵҫʹ¹ս֮ҹҲعԼӢ!ǾǴС㡪!ʵС֮ǰһ֪ΪӢ۾Ϊ˹ͮ!¹Ϲͮع֮!һ˰dz¹ϺͮС!ʱսϾͿԹ۲쵽¹Ѿͮڽ֮УҲֻ!ϾÿֻͮڣͮʹòļӢۣר¹ϵ·!̸ķʽͨҲడ!ˣ֮ǰڳĺһֱ˵Ǽٵġ¹ս֮ҹ¶ԼĶλDzֶνӽʯ!ǰdzСžǾ㣬ֶDzֶΣͮڵ֤ݾȷѽ!û뵽¹õķʽҲǴ!Ǻúÿúѧ!
-game DOTA2ո7.07b汾ˮţ ҹʡܵ553ڣϵC5GAMEԼӭͼ / ҹ / ҹʽ賿DOTA2Ѫս֮ºMinorԨʽĻLiquid23VG¹ھNewbeeVPֱλе֮DOTA2ְҵսӻ£ԨDOTA27.07b£ͬڡѪսֻ֮һƽԵС£Ҫϸ汾imbaĵзʦ֮ԴаӰ顢Ӣ۽ͬʱǿ˱徫顢ʯ۽ʿССӢۣºı徫Ҳʽ뵽ӳģʽС뿴ϸ־DOTA2 7.07b־ ϷԸ- ͵˺ʹ25%40% Ʒ֮- ͼֽ۸17501675- ʹ67ս- ӳɴ50㽵45Ǵ- ÿ˺60115㽵50/90㣨Խǽ Ӣ۸µзʦ- ɳ1.51.3- 1512- ܴ26/34/42/50%20/30/40/50%- 15츳˸ɿػΪ+15 - 20츳+10 ȫԸΪ˸ɿػ- 25츳+30% ܽ+25%- 츳˺250%300%- 츳Աѡе֮Դ- 10츳ȡΪ+100 ʩ- 15츳+150 ʩΪȡ- Ұ֮ħĴ60/65/70/7580- 20츳+120 Ұ֮˺+100- 20/30/40/50㽵16/24/32/40аӰ- Թڳ˺ÿ0.5һΣ- ȴʱ20Ϊ40/30/20- ˺75/150/225Ϊ60/140/220- ڵʩ800600ʿ- 15츳+40% ȡΪ+35 - 20츳+1.5 ʱ+2- Ĺӳɴ20/26/32/38%16/22/28/34%³- ָ2/3/4/5㣯4/5/6/7㣯ɯ- ɳ1.951.5- 10츳10% 12%- 15츳+10% ȡħ+15%- 20츳+2 ʯӳʱ+2.5- Ѽ˺35/50/65/80%30/45/60/75%- ݴ20 + 3.618 + 3.2徫- ¼ӳģʽ- 幥ݣ˺ϵ0.250.5- 幥ݣ˺ϵ0.5/1.0/1.5/2.01.0/1.5/2.0/2.5- 幥ѣδ0.250.5- Ա任Ķݺ3/4/5/64/5/6/7- 10츳+20 ƶٶȸΪ+300 ̬- 25츳+800 ̬Ϊ2 ̬- 25츳4 鴬3ʯ۽ʿ- ڻʹӢ۹Ϊ24/42/60/78㣬˺ζſԴѪȣ- ܳ˺ʹ8/10/12/149/12/15/18%- ܳڻʹӢǰƶ225루ԴԽΣ- Ҫ1.2ʩʱ䣬1.2ʩ- תٶȴ105/110/115120- ƶٶȴ550/575/600600- ƶٶΪ̶ֵ- ˺200/250/300200/275/350- ƵĹԼߵλЧ- 25츳-12 ȴ-16- 15츳-4Ļȴ-5- ݴ3430ѻ- ڤһȴʱ80/70/60Ϊ100/80/60˹- ֮ӳɴ12/24/36㽵10/20/30- 25츳-8 籩֮ȭȴ-9ʥô̿- 10츳+200 +250- Ķ˺100/125/150175/250/325СС- 4- ץȴʱ40/32/24/1615- ץĽ˺70%100%- ץԵзλĶ˺25%30%- ץĹ2/3/4/52/3/4/6- ĹٶȽʹ-30Ϊ-20/25/30- Ͷλܵ˺20%30%- 10츳+25 +30- 10츳+15% ħ+20%֮- ѾĻʱ7뽵6- 3ά- ӶĹ25/40/5530/45/60
-game ȭͷٷS720ǿѡûϰ?:̩ȭ! ڸո,ȭͷʽȫͬ˴˴ιٷS720ǿѡ!Ƿֱ:LPL6ϰ,ֱ:EDG SCOUT(19)EDG MEIKO(9)WE CONDI(18)WE MYSTIC(11)RNG XIAOHU(5)RNG UZI(14)СǷLCKѡߵLPLѡ,ǰܹעEDGҰȻûϰ,ʵе,Ȼвѱʾ,ȭͷȻȭͷ,ѵ̩ȭ?Ҳע,ǰ10,LCKռ7ϯλ,ıȶɭǿ˵ʮ,ʦŵ˵20,,LCKռ10ϯ,һ밡!ٷǿ֮,֪˴αڵһfakerܲܶסⲨǿ?ַ:http://lpl.qq.com/es/act/a20170919top20/
-game ҫΣͽʦҪǧ֮⧲ɾ ѴҺãӭտҵҫǵѡͯСҫһʦһ飬û¾ʹԼһ֣˿ܻ͵ƤɶģǽȴһСЦõʦͽ¼һͽܺһʵʦ¼ǺģǼӼСŴϷ֮ʦͽ죬ҲԿʦDzģϷϢСҲôģȻȴе⧲ǽſͽܿʦڴţҲ֪dzʲôԭ̽Եʦһ䣺ʦҸǧ֮ɣλҲһЦȻʦȴˣʦûϢͲסˣ̶ַһ䣺ʦȴһĵϵͳʾʧܣӶԷΪѣԲۣʦҲ̫ʵ˰ɣҪƤɾСò˵һ666ҲģΪʦһЦһֱڷϢֱ˵ԼҪƤˣϷֱȽҪȻʦû˼ӦҲǡ߳ŭ˿¼СҲеˣ֪ôûأƪµ˾һˣɽģˮͬһʱ䣬ͯ㣡
-game LOLСɣ7нǰѹƣ ֪LOLĶǺҪģеûбץ¾·̵߱ԭҪڶԷƾ;ãѩԽԽ ֪һЩӢ۵ļ⣬ҲǺҪһõģȡѪϵƣöԷ߲òسDzһ̶ƶֵķôڶ߹УӦôأ1.IJģ˼ǿֲļ϶ȥĶ֣dzõķڶͼʱֱչȥĶ֣ö©ǵѪѾء2.ϷУ㾭ԿһĻijӢȥĶԷһףȫУȴԷѪĵĸءкܴСǵ˺Ҫ֪ǰڣСĹDzһӢ۵ġڶߵĹУվԶ̱ĸ㱻ʱСͻɹԷޣȻһĶ֡Ƕ˵Ʋر£ҪŴӲնԷСĵòʧ3.سǰĵسʱԳûĶ֣ǧҪעԼ״̬Ҫ˱ְװ״ܻͳسǰijǣѪѾûãʱѪͬһѪֻҪ֤ԷҲ൱ڰװױĺܶʱؼңҲͻ˷ͬľ顢ãؼҵĻٶȻصϾͻȡѪϵƣ⡣4.ȼƴ˻˺֮⣬Ӣ۵ȼڹؼ(3.6)һܣԿȼƴǷdzҪһͨ·7(ڶһ)15(ǰ)ǾͿڼ˲ȥֶƴ(ҲҪעֵȼ)öֲԴĴʵ˲ֱӽ̶ˣӶСɱԷ5.CDƴCDָͨԷؼܵȴijЩӢ۵ĿơҪսܡһЩؼԼܱƭͿԴȥһס6.˻ѪľĿơܼظȥͬԷѪĵ˵ͬʱԼܵ˺QWAEEAWQEȣͨܵĻͬ˻Ѫ7.նɱѪնɱѪһԻɱΪĿļɣָͬԷѪѪѹ͵ԼһױߵķΧַȻԼѪҲģὫһߡѪնɱҪǶ˫ܵ˺CDһ˽⣬Ȼпܳ˺߷ȱֻɱ¶ϣҲֻеһС֡ϾʵϷлֵ̫̫࣬ÿǴҰgankӢۿƵüɣǶȡʤ֮
-game жǿ?MAUǧ (ϷGameLook,)ϷߡѶӦһױӵ,APPΪܼ,ʵʻרŶӦкܴ,ϷĵȲʵĽɫȻȨʶ,ҵձΪûϰѾиĹ,Ͽƽûȫʧǰ,ڻлQuestMobile2017^,Խ˽9·ϷӦMAUǰ50,һͬϷӦòݹ۲,вٸӦ»Ծûƽǧ,ϷĸӦ,ӢˡҫMAUdz2500ϷMAUƽǧQuestMobile^,»Ծûǰ50ϷӦ,Ӣˡҫ֡СϷ4399ϷС«TapTapҵӺϴԽһ8ܻӭѶϷĸӦ,һ3,ֱ8941ӢˡҫָΨMAUֱǧǧصIJƷΪѶϷĸӦ,ΨһϰǶҵӡ桶ҵ硷,ϵ˾ֹͣȨ,˵Դ,ƺδԶҵûɴΧʧһϰĹƷСϷTapTap4399Ϸеȴ,֮Щ,СϷMAUﵽ2300,˵TapTapٴС,MAU7004399Ϸо,MAUΪ1200˾ȵ,ԵϷΪĺ«ϰ״ͼ,«9·MAU24,ԼΪ900ɰAPPָ8·ݵݿԵ֪,«¶豸Ϊ770¶豸MAUϸ,,«Ρ9·ݰAPPָʾ«¶豸½,5һ»,QuestMobileͻ,Ҹò顣ڻ˿ںʧ,Ӧ,廥Իȡͬ½ġ«һΪӦ,вٵķĸ衣,«ͬһϵвƷʴ«3¥,Ӧú«ҵ硣ȨȻ,谭ֱ۵·ڰȨ⡣«ҪȡֻRootȨ,Ӳܴ̿ڳƤĿܡϷȻֻڵϷ,ֻҪıлַƷȨ˵ĺϷȨķա«ܷյķǽΪҵ,ûЭȡ,Ҳнӹ,ݾΪûϴܷܵԭܷԭָڷȨ,ڽӵȨ֪ͨ,ṩ߸ݡϢ紫ȨϿȨƷ,еΡܷԭƵվӦ,첥Bվ˷,Ҳûɷӳ,«ܵͶߺɾԴϷ,«ͬṩѶƵӦغݺ«зĸ˾,ĸ˾Ͷعɷ2017ȲƱ,2017ϰ,«ϵAPPۼưװͻ1.1ڡŵ̳ۼƷ13.3ڡȻ,ûϴ,ѶȺܸ,Ǻ«ĺܺ,Ȩס20144,һҲΨһһȨ20159¡йĹʾ,MOBAΡ֮սз̶,ߺ«зַȨ,֮ߴɺͽ⡣ͬ·ݶ类½ĸ櫻鿴,5Ԫļ۸չ51%Ĺɷ,Ǻ,²̸«ΨһһȨԽԴϲĽճ,ͶҪչ,ϣٷɲľײϵ,ͬҲͺ«ǰ겢ûûйءݺӵ,«ʱܴŸӰ,ҲһûоƷĵ·Ͽоֵ9MAUаǰ50ϷӦ,ֻܵк«һ侺ƷձϷȵȲټ,34ǰֹͣ˰汾¡ȨʱٺƷҲ伣״,ûк«,Ӧҵͣ״̬«ڻҵĴ,ζ˾Գô˻һҪ̺«ĺ,ʵ«ܰȻô,ĸ˾ĸ˾һáǰᵽ,«з,Ƕȫӹ˾,Ͷعɵȫӹ˾ͶعʵʿΪʿع˾,ʵʿΪйĻʲල칫ҡ20161212,Ͷعͬӹ˾Ϻܼ 4.1 Ԫù100%ĹȨ2017321,Ͷعյʰ,չĿʲ,ͶعɿʼȨչɺ,95ͶعͶ4Ԫ,ṩ2Ԫȡʵ˵,«ǹʲ«ͬʱҲ,ܹϷMAUǰ30,롶ʦͻ̨ͬ«Դеչܴﵽޡʵ,Ǻ«ҪӪҵ,һͷֶΡ«ȻȲ桢Ҳûȡá«ӯ,Ȼͨ,Ӧ÷ַݻTapTapһֳ,«ԿΪĸ˾ṩҳΡΡH5Ϸ,зһ,㲻,Ҳܴɹۻرԭ,Ӧðҵ߶ȳѸлĻ,ҳͶϷĻԱ̭ˡ«ij֤,ʱڱ仯,Զûбôסƫҿ᳤ܻڴ,,ʱûвƷ«
-game DNFûʷʫ? Щɢʷʫ! ֪ŵʱųһۿ壬ȽϸߣôͻͬȽϵͣųܻܾôûʷʫװֻʷʫɢβְܴҵ?ʵҪȽϸߵ壬ЩʷʫװǧҪֽ!˵ӳɱȽϴǼӳ466徫ӳ470˵ְҵȽϴڸ̵ҲDZȽϴԣһܵԻû磬90ʷʫͷԱȽ죬40-50+2һļӳɣԶ˵Իȱ١˼Ԧؼףؼװ130112+10%˵װڽɫӳɻDZȽϴġսȣս15-40+15%Ķ˺174156˵ҲDzɶõʷʫװͳ˧սЬЬӵļӳɱȽϿֲ˵525˵516һЬӾͼӳ500࣬Ƚϴ֯ͺȣ90ʷʫɢļӳɱȽϸߣԶڰٷְֱҵ˵õ90ʷʫɢ90ʷʫɢУӳɵҲDZȽ϶࣬ҲDzɶװ90ʷʫɢװڽɫȽϾû90ʷʫװЩʷʫɢװһԴﵽij̶ȡʵЩɢװﵽǧ﹥ﵽŻûҪ?壬ƺܶųҪ!ԣû90ʷʫһԴţЩʷʫɢװǧҪֽ!
-game iOS112죬ˢϷ· ߣGameLook920賿һ㣬iOS 11ûʽ£App Storeʷһθİ棬ӦƼƺعⷽʽԱ仯°appstoreƻ༭дTodayԼϷǩֱȡѰѰڲ˵ֻʾTOP3һϵش仯ֱӴ˹ڰĿٴϴˢɵIJƷѸʧgamelookϸ˶iOS 11ǰ죨919ա921գʵʲƷ츲صı仯һ㶼Ϊһ仰ܽᣬǾѰ˲عŷϷƷʧˢʼٵľǾʵʵϷƷʼعǰСApp StoreİѰѰֻʣʾǰ3Ҫ鿴ĶؽתʣʹмֵĻƽλֻʣ3ҫ̾1ࡶ֡ҵ硷ֶֶƲ磬ˢҪĴ̫ߣúͬˢƷˢƷ˶ˢ919գѶµġֶԪµġֱ֡ˢƷѰ912App StoreİĽ죬921աֱֶ֡͡Ѱ24ζмʮѰλóԭTOP10ڵġԽߡǰ10ͬʱĿǰڵˮﵽ8000ġ«ޡѰ7ĴǡɱسԼΣǡPCϷɱȵøոպãȻĴ鿴919հѰǰ50ڴƤˢƷҷ˻dzˢʹõƴʺšGamelook۲죬919Ѱǰ50У˻ΪƴIJƷ35һѸ½10Уǰ50IJƷ619»½˻вƷֻ4ЩڷѰˢ壬iOSѰTOP50Ȼ˵ĿǰiOSְ˵ֹ̾ͣˢĶѰơʧijԳƷڡӲѰأ919ոѰǰ50Ϊƴ˺ŵIJƷ24920գ˺ŷIJƷȻ17iOS 11ǰ7Ѱٵ25вٲƷл7½ǰ50˻Ʒֵעǣ21ûһ˻Ʒ˸Ѱǰ3ζŴԸѰλˢҲѰ䡢ѰơȣѾiOS11ʧijûг̫仯ԳƷĵ̡ȻiOS11ȡ˳ʵֻҪûiphoneֻiOS11ϵͳϰiOSϵͳappstoreȻںܳʱ䣬ͬʱҲܱappannieͳƹ˾ץȡ飬iOS 10ܺûʲﵽ48%1ºʻӽ70%iOS 11²2죬˻гûͶȻܿʹδѿ϶ΪϷȻʧȥгӪļֵiOS汾ڣСְҵԳϷҲðϷȫװֱȡģҲҪģȻ̣ԱʱϷꡣδԷ˵ǷԳֵ˾⣬ǻᱻרҵʿ鿴ѪDzҲ֮ڴƫԲƷApp Store2а£ƻƼƵĴ¡ȡƻû̵Ȩһеıƻķַشı䣬iOS 11ӻ㷨Ƽơöɸ˹Ƶı༭Ƽƣұ༭Ƽкǿļֵ۵ȻûиϽɱüأѼѿͨappstoreȻĻ볹״ơĿǰTodayΪƻƼģʽʵdzŹںšϢʽÿ̶34ϢϷռλʵҲƻеƼȻ֮ԡɷӡİޣҲҪ˽ʲôIJƷܲƻģõĿƼλԴTodayѾµͣƻͷáһ֧ƻ¼IJƷƷܱƻԼΪרƼлƻȫ档ǰùiPhone ƻ^^ϣƻARKitߴARϷThe Machinesͻƻ顣ڶǶϷƻΪϷͷƫСľƷѲ£TodayУ༭ƫΪϷд¡һЩӵȤ߹¡ΪƷ塢ʾеõӦøܵרҵĴԿ棬纽ŮսʿȲƷȻԵƼܹͨרϼķʽ뾺Ʒһͬõع⡣ʵƻصĶԣǡǡǹΪѷIJ֣Ҳǽ̶ѺעϷڳԸƵġѾ൱翨ơMMOMOBASLGǶԪŴͬʻƻȱƼ塣ͬҲһ⣬źӱĸƻĿǰгĵϷҪƻƼ֮ѡiOSİ֮ҵϷҪƻٷƼѶȲСƻԼASM۹ٳٲйҲ೧̶ʱֱЧֱӵappstoreϹ̱ʵûѡѡİApp Store߹һϷԵôֲڡԵó¾²һûɫ
-game ſ£ѡҵʮ9ֱ ҶϷҵΪά硱ϷҲκϷӦеԪأ˵Ů˵ϷĻ涼ǻصϸһһȥоģһƬ˴ҶϷҵΪά硱ϷҲκϷӦеԪأ˵Ů˵ϷĻ涼ǻصϸһһȥоģһƬˣҲһƴնɵģ̵һ⼸ʮǧҪſŶ 1.ϷĴźIJ࣬ȫǣŨŨһüڴıӣɫ۾ҪľȻǴͺͷǵŵģ״һȭĶemmmmm...Ҷġ2.ҵΪ֣ܶʬ¿ӽӡжֵɫԼöֻƣΨһܽܵľûлƣɫ㣬аװߣѩ״ߵݬ 3.ʬʬв̬ͬ»Ϊͨʬʬװʬ꽩ʬеŶʿȵȡʿһ꽩ʬһֻϣʵ뻹ͦɰģǿƶеЦá 4.ŮϷŮʹʵеƣŮõȥŮʹͬľɫijۣɫħñɫijѥıһ룬һŤ 5.ʵʵе㣬ó෴ĴֻһЩɰϷİϷȫɫаֻֻ֣۾оûɣܵ˺ʱī֭ 6ϷһС͵ƳǵƤɫģ۾ǺɫģҪҪȺϵĹﵰ֮УΧںһ𡣶ҵܵ˺ֵ֮ᷢ 7.ϷĵĿ˺ܶô춼ҪˣΪɫ̫ˣǵƤɫһצӣеʱĻ档 8.֩뻵Ϸ֩ҲһȽϳǵɫģںڰ֮Уô۾ᷢɫĹ⡣һ֩ǶѨ֩룬ǵɫģ۾Ǻɫ 9.ʬͷϷýʬϷԳƵϲֱˡԽʬֵ̬ģȫƤΪӽ𣿶žŽо䣬ֲײ10.½һֽˣƤǻɫģΧּźܶɫĵ㣬ȫȼӣ۾Ǻɫģϸܲô֡ ʮ־ǻϷȽϳһЩˣĿе죬ûУۡϲ¾һҪQQȺ()(δ)δδδδδδ߿ԹעdzŶ벻ľϲӴ~
-game DNF:һλϷһųĸʯԺһ DNF˧˧ԭϽϮתأΥ߱ؾͶ߾ٱţµļ~ллףϷ ˧˧ ѰҴװรҪĿ˽ ϲң͵Ұ~ҵԸϷңȫҵ~dnfԨǺܶϷңɹ֮·ıؾ֮·̫ңԨſڣ90ʷʫAĵһȱһҲǣǣеңһλܶΣĻҧгݡǽ죬СңĸͬʷʫǾʯȸҿһҵĽɫһܵĴŽϸ꣬ħսˢԨҪˢĽ꣬ˢԲۣʱdzȻϽͼټԣʯԣҲ֪ʱ20%ļ18%ļܹȻ60scdȫ̡ټάǿֲ90һʷʫҲۣ顣ȻΪ£Ҿͳˢˣ˯ģΪսߺħƱȽ٣ˢ꣬õۡٸˢƱ̣սҲʯʱҾ;ˣǸϽȥ12Լ15.800wŪ֮ˢ˼ѣһֱҾͷˣףս߽ҪͷˣܼˣǻħɡûƭˣʱʯԺҾͲѵԶˣԲۣô6ô֮ǰһλϷ˵ҪһһװرԵͻһֱȻ뵽СɫÿδţĵĹž꣬ڣޣ̰֣裬룬ڸˢһ£϶ٳ˰ɣֵǣţ66.ʱˣҵDZģĪı˰ɣ£Ȼǻҽͼԭˣֵܿĺţȱʯ㲻ᣬûʯɣȻССĴ̼һ±DNF˧˧ԭϽϮתأΥ߱ؾͶ߾ٱţµļ~ллСֻ˵ร˵ĵ˵ģһ죬㷢ԼļţųһʷʫôϽĸɫȱϽˢȻֻȥˢֻһ絳ؼģһҪԸรʵǺܶ˿˵þûԸˣش˷һףԲαDNF˧˧ԭϽϮתעԴΥ߱ؾͶ߾ٱţµļ~ллףϷ ˧˧ ѰҴװรҪĿ˽ ϲң͵Ұ~ҵԸϷңȫҵ~
-game ɱ±رʵüɻ ɱϷҪΪʤߣļDZزٵģСҴǾɱʵüɻܣֲ֪ɱôһ°ɡ1.Ϸǿƻģȷź˵ĻҪɵĿţֱǹɨרθֲħ2.ͼʱ˹һʱƤλһߣŵзԤСȻȷǹλãѸзвſ£ġ3.ͼʱסaltʱ۲ΧҪҾִҾղͼ͵ϮĻС4.㷢һijһҪӱСģ˺пڸѹΡ4.һطѹˣеӦöǿŵģ㷢йŵš˷dzпܾͲ档5.ϷеĽŲǹdzķֱǵ˵ĴλáѶʱעŲ6.ɡʱܿ?ÿɡĸλãлҸԼһطʡԿɡλúҪΪÿϷɻǴλýֱ߷УеҶܷɻϣԷɻĵصٻȥǿһ㣬һЩɻɵĵص㣬ͽܹȥַġ7.ںʮҪܼͼڰȫΧСڷӸšʱҪװѵ˱ƳԼλʮֲ¿ͻΧ8.ʱסshiftʹζԶĵʱеãսûá9.θӵĵʱСװȵطûӻ߳棬ðǹлģʽӦڽĵˡ10.Ҹ˱Ƚϲ䣬 Զǹ+ѻ>Զǹ+>Զǹ2>Զǹ+ӡϲãá11.ϷУȭͷ˺ҲDzСģɡûǹȥһȭЧȭͷԴ70-80ҵѪ()12.ڻɱҺҪȥ˺ܱܿǹȷû˺ȥһҪſѾɱ˲֪ٸվ.12.װԽԽҪҪ33ͷΪԼȥ˸գϷװǹװƵʱױƣܻ14.밲ȫرԶҪøе˵עϣϷɻľDZ¶λ.15.4뱬ըڲҪӿһ㣬ڰվͻᱬը.16.·Ǽģ↑ĻϷеϼģԲҪô³ͲһЩ.17.ϷУһˣڵ״̬˵жѣֱ˵ǶѾ(ͷɱֱûж)18.ʹø߱˴dzԿʱǿסҼʹõ˳.19.ϷЩڵǹе߽˸ʱǰtabΧһΧжʾڱ.
-game YYһڽǷĪ ƽ̨֮IJ 껪Ļ,YYͼ1500ڽǶ֪ŮĪϢ贫ⲻǵһҪڽǷĪ,1·,ϢYYԻʵҪ1ڷĪ,ᡣҵ»ӰYYֱʱʾ,Լѷͳӱ1500ĪǩԼYYⲻǵһ˵ҪڽǷĪ,1·,YYԻʵҪ1ڷĪ,ᡣȻ,ЩϢ,֪ڽǷÿԿ,ļֵȻӸ߲,۸ֱҵ侲Ѿˮ,ԶӰ첻ڽֱӵ۱ڽڸж,2015-2016,ڽǼΪֱҵ̬2015,㻨6000ӻ6;ӶPisܱϷ;8·,ʮ;ɭ붷˺,ɭս;,աۡȴӶȫ2016,ս̰˯֮,¾ն٢;2017,۶㡣лè顢ս졢㡢ȫƽ̨ڽ,βȡֶ,ȻⲢֹƽ̨ڽǴսĹؼڽž,ΪֱҵĻ,еɫPDD忪Сǵ,˿ȺӴ,ȲС,ȫֱʱСֱ,С,ȫֱ˵,ֹעǡǡƽ̨Ҫġ忪Լ㡢1ǩԼMISS,ļ,ҪΪһԽԽ,Ŀǰӵмʮ˿ĴȻΪġ2017ع,ҫĴҲһƽ̨ע,ǰûա߮ΥԼ۶,⡣ڽǵżҪָĴС,˵㿴һΥԼ۵һƽ̨,ԭƽ̨Ҫ⳥!ǵ,ƽ̨Ƕ,һҪķѾ,ûΪƽ̨ⷢȾƽ̨,Ȼ١,⼸ΥԼ۱ϷԺİټ,ûһλľӷԺʵҲ˵,ƽ̨ЩΥԼҪΥԼ,ɷԺоʱΪǰûа,ֻܰʵʹоһһʿ3,ôԺоʱͻᰴʵʵڵ3Ԫȥо,Ȧӵаļֵȥоƽ̨ûиķסķչ,ֱƽ̨ݹѾdzḻ,ֱ+ֱ̡+աֱ+Ԫȵ,ƽ̨ݷ治ϳԡڵ,Ϸֱ㳡ֱ,ڶȻռλ,ƽ̨ȻҪסڡҲʾ,ҵļ۸ֻһ,ûƽ̨;1,һ,ΪǮġΪֱƽ̨صԴ,Ǵ,ķѪڽǿͨöƽ̨һ겻ƽ̨γǹؼȻڽ¼˷ʤ,ôƽ̨ʲôֶܽʧԤ?,ĺͬԼȫȻĿǰûгֱ̨ΥԼķɷ,Ȼƽ̨ڽǵĵһսġLyingmanǵͰ,JYѩ,ս˽ĿפߵľءҲսһѵ,תΪƽ̨ܸƽ̨,ƽֻ̨Ȩֻǵһ,ҪٽתΪ˿,漰ƽ̨̬˿ͨȤСƽ̨,תΪƽ̨;ٱĿ,ǰͨĿ,ĿIPһĿ,ôΪƽ̨IPԴԴϵ,ҲļֵõַӡڽǶ˫ƽ̨ʧ,ֻƽ̨Ǵ,ʲôʱƽ̨ڽʱ,ֱҵӭΪʱϷƵ:sinagame2014Ͷ弰:zhangmiao1@staff.sina.com.cnһϷĵγάע
-game LOL-S7:WḘLCK^кܺ ʱ1029գӢS7ȫܾWE 1-3ǣԵԴչۡ- ̫ûˣûʲôۡ- ʵʵ˵ij̫ѿˡWEȫһֹס- S3 - SKT S4 - S5 - SKT S6 - SKT S7 - /SKT վıߣ- ǣΪ˹ߡSKTķ֮һбֳǻǿܱܵġ- ǻӮȻS8S9S10SKTĹھȻS11 ȦӽһֱֱLOL군- Ψʸսӡ- Ӣ˵羺90%ͽŶйأͬĶһֱӮǺ¡EDGܴMouseClearloveٴӮйSKTSSGõĽŶǽӮȥǵѡʵ̫ûզ- һFaker- ȷSKTܴһֻΪFaker- FakerSKTRNGıй¶carry- ҵֻ˵ǣҵ궼ڽкSKT֡SKT3-2ʤ- LCK^̫ʺǵĺˡ- ڴⳡšSKTSKTʵSKTš- ţˡû˻ǵƱˡ
-game ҫ|ӢҲʷ?!ԭ˭?! ҫӢۡʷʵ,ǾǹʫάԪǰ 70 ,ά(ȫ:ղ˹ά˹),С衷ũʫ͡˹ǡ,ƽλѯٶȻάٿơڵ,άһ·˵,ΪʫƪеҪɫ 2001 ,ձϷ˾ CAPCOM ƳϷ˹ĸͽά,˶ȡԡ,ݽǰ˰ħ ˺,άΪɫ,ڶϷжеdzڡĹٷ趨,ҲСϵħ塱ħֻѪꡱ硱άҪɫۡͷһë:άڶ,о:1. ῳһһ:2. ѵӳȥתת:3. ɴħ:,ϵлһɫ»,ֲƺɫż,ġƤ,ҲֲΪص㡣˵,ҫġзdzȷԭ
-game ɽկԼϮǹ̫Ӳ Steam ̫ ֻϷµķչٶȷdzѸͣҫΪһϵֻϷʱۻ˴ûӯҲdz¡MOBA Ϸڵ羺ҵһdzҪɲ֣ԱȽǿֻ˵ļҲ͡ȻϷͺƹ֮⣬IP ҲһϷܷǰڻûעص㣬֮ǰȵġ桷ǻ Dota Ϸ IP ˽⣬桷ϷûиܣDota ͼ IcefrogκȨĺǰ Dota 1 ǰְҵѡ 09 иƽ̨ҪĵЩ桷ƣԱᵽġԼϷɱΪ IP IJȵϷֹʱ䣬ǿ App Store ѺϷϣԴɱΪϷҪҫţҶ졣Ϊʲô˵أϷϷģʽ֮⣬ϷɱϵϷ£ϷڳŹڹ顣һЩû۽ͼ˵ֱۣ˵áͱԹ˸֮һЩεġˢϷҶؽ棬IJ࣬ѵһȥ֮ҪŶӰСʱ߿ 10 30s ĹϷÿζҪ VIPϷ֮оûʲôѶȣܻνҶ NPCƥٶҲܿ졣ʵϷΪʲôɵϹ App Store аˡɱĴȹ֮ûԭ Steam ĵ˺ŸݣɱҪȺйռ 42% ңա 1400 㣬йҿ 580 ӴûϸԾȣڡغ˵൱ʡһѡһϷDzöҲ֪ǻϲܲóά£ΪӪֶΣһͰͳˡ״ǰҵһҵһвٶЩһ·ɱϷѾһʱ䣬ǹϢٳûг֣ϷڵĻҲãҺӳٵһֱڡSteam ЩзĹǸ֮ⲢûʲôĽ취ڹҸӳٵα궼ûκáĴڲһ̶ӰϷӪ״Ҳпͬʱεܱ߲ƷĽ̡ȵ IP ûãȻǮáһƼվ TapTap ϣĿǰǶаϷԳԼʹɱΪԪԿƽ̨İװѾǧϷʾڽ App StoreѾϼܵϷΪаǰʮ˺ܾãҲֵòˣغڹЩֱ룬ҲϷڵĴ롣App Store аĴĶDzģǿ༭Ƽ鱨ָ϶û˵ֵܼаҪ߳١jdong_news
-game Steam 92%ϷƼȭʵľ ϿעҡJ˵ϷΪڴ֪Ŀ϶ǡȭʡȭЩϵСһЩϷ˵ɱֱܣKiller InstinctϵҲDzѷȭʵƷʽĴڴǰҪxboxƽ̨ۣҲ̫ϤSteamƳPC汾92%ĸߺʣһ̽ɡʽĻȻѾ94ƷϵˣPCֲ14xbox汾˻澫ϸ̶ȻǿġŨʽԡ⡱СС㶼ͨͨʲôɫˣʬãҲҶָСɫĶƺʹУӲ˵ˬʮһϷҪʲôȻսϵͳˣΪһƸϷɱֱֵⷽʮֳɫָƳɫȭȭ⣬뼼νӺЩлԼͼ⼼ӾЧҲʮѶȭƫӲĸϷͬɱֱܸǿսˬжѶȡͷżǿ˳ֲе൱֡淨ͳ˶սḻֿ֧ƽ̨;Ϸһɱֱܵĵ淨ҪɹģʽϷ飩ģʽѡһ̶ɫսɫVSɡ淨ȻͳҲ㹻ܾˡڶ˶ս棬߶ս߶ս֧֡˴ͳ1V1ģʽ⣬ϷṩһŶսģʽұΪ飬ÿս˫ɳһλжսԱһΧۡģʽ£ҿѧϰ˵IJɣٽҼ佻Ϸֿ֧ƽ̨Steamxboxǿ̨ͬս˵ΪһϷɱֱڻ桢еȷıֶdzɫȻٷģϷӰ첻ϷDzҪϷƣɱֱܣKiller InstinctƼ̶ȣսˬ죬ֶ֧˶սУѶƫͣƽ̨Steamۼۣ112ԪȡϷҵ˾ڲġӭ·˽ࡱĹעǣϷѶϷȦİĻŶ
-game Ҷ봽֮ ǮʱǮ Ϸڹںܶ೧̶ʹõһֶΣǶ봽ΪҲǺ֮ǡڸݷSuperdataıʾȻЩݷdz˺ޣһǻԼǮ֧Щѷ2012ȣ2017Ϸڷݻõֱӷһ ƪУSuperdataƾܷŭǶԡսǰ2ijӣںʷEA˵ֳӡѾǼҳ㷹ˣSuperdataսǰ2ΪϷҵɳʹȻŲʡ SuperdataָĿǰСضʵ飬ͼڲŭҵǰӸչʵڼгɹҲʧܡȻڷǹиݱԹǻѡǵǮֻ֧ڷĸݡ ͼΪSuperdataܽġPC/ƽ̨ϷƷͼɫdzPCϷ棬PC/Ϸ棬PC/չݵ档SuperdataPCϷPC/ƽ̨չΪһࡰڷݻõ롱service-based monetizationPC/ƽ̨ϵϷǡڲƷ롱 ͼпԿݵ۶Ѵ˴ͳһϻܴ棬һû˿ļ2012PC/ƽ̨ڷ130Ԫ2017ѷһ࣬ﵽ270ԪɫΪFIFA 17չݵ棬ɫΪϷ SuperdataָPCϷķʶÿгֻڣǾ뷽跨һߴеǮͬʱͨżոĹ˿͡ƽ̨ϷԣֲԶǷdzɹġEAһϵСFIFAڹʱյĵƾٵö࣬FIFAϵӺչݴÿ궼2λٷֱȵıĿǰѾ60Ԫۼ۴롣սǰ2ҲģһѲԣҲһЩؼԵIJͬ⼸ͬǡǡھϷɰܵĹؼϡ Superdataʾ3AԽϷתΪһַܿδ60ԪϷIJԣתѡһֲƷ̬ϵͳproduct ecosystemsͨһʡŷápay for subscriptions servicesϷݣȻǿѡϷΪԼϲڹݸѣҲܴӯ ڱSuperdataʾEAӦûԲͬϷݵķӳѧһЩӵġʹٻϵлڽɫԼϵͳֵľһֱEAġսءϵҪáͬʱҲʾEAΨһһΪǮԱŭȵķ̣̿۵ǵŭҲֻﵽϷչݵ7%
-game TapTapϷ | һһװ Ҫڵйȥ 壬ͺһɱʬĩƾŸĸݣٴζˣϷƺţС̫Ϊ֤ԼƼլʵȻػҪһ·ڵйȥɱѾ½ϵսΪߵشɱܷ̼أη棬Ϸ2IJԵˣƾԶƣɹҳС TapTap ϲϷʲôԸǰɣ˵Ĺ£ذTOP1˼Сʱ˵һ˵оɣǺԴ˶̫ѺãһֱûΪûк֮źûӣͨҵһϷӦö˼ϷһֱܻϷֻܰ˵֮Уģͣ棬淨֮dzǻʷdzֵóޣҲ̫ΣûͼʱϢһ£ÿԴͼҲҪ̫ʱ䣬ԺܸߡһͬȷʵԽTOP2ֵϾ˰Сʱʵ20ʱѾڵйȥˣֻȫˡϷԶϷûνĻɶģֻǿ淨淨⣬ȱ֮ͨû˼ˣǾ˵ܺ档TOP3ǴȽؼ۱:Ϸ̣ڵġϷ淨ҪͨϷֻӦʹ̲ãϡͼһϷ棬ȫԸhap lnc.Ϸ˵浽48(ʯ)(ȽѾûͨأ˼ۣ)ǹغᣬȥԣ˵ָסʯͷȻϽʯͷߣ֮һָ㡣չϵƲʯͷ˵ҵֻ()оTOP4_{ؼϷʵpcľشɱ淨࣬ľͲ̫ˡƶ⣺ΪʲôֻûжףûſأҺٶȷdzĽڻ⣺ԽӾͺˡװ⣺Щƾѻ̵ʲôһص⣺һڣһƥ䣬ֶʾ˾ɱǵѶֲ塣ܶһЩϷģʽԲpcIJDzڴֻϷΪһεģѵôֻǣĽTOP5٣һдϷϷ֮ǰȷ̬֮ǰ̬ƽô̬֮·类ĸѿһԭرըûϷѶȷdzߡ(ţ:ڡʶˡ)ֻҪĻϷĵͻȣзԾϷкܶģʽɽӰӣԭתȦȡҳԸȤҲܹĽµĵͬĵDzһġ˵ÿһѵƷͬȤϷTOP6WatchcatXDҺãһ̱ԴϷ֮ұһλḻˣǼбָѶȵıҶ֮еΡ(ϷӦýС̱μǡ)Ϸʼ3ֵÿСʱһֵȫǵƴ˶ڶȣǶµСڽϷͷʱTOP7.ϷܼģǰøӿҬҬӺľģҬܼӼˮˣȻȥʯͷʯͷԴìȥɱë⣬ë⣬ʨƤë⣬¹ûɶúɱֻƤ⣬ҲƤëޣƤ㣬Ӻʨ㿿㣬Ѫߵ¿վߣһѪԿͿܻѪָߵļˮ֣ѪȻ˵˵ɱĶܸߣվߣ3ɣҪŷݣһ£עʯͷס˾Ƚ϶Ƥ⣬ûбҪðȥɱɱˬˬˣұߣΣûҪ죬̫ˣùˣϲҹĻ˵ͷ˯(><TOP8dz棺ô˵أϷ˿Ÿоɾֽ࣬ŵıµ()Ϸ淨ûʸֻսСһ*(`)*ȤĵطҾϷԼϷؿȻҲ˴Ĺؿ(ţ )ϷкָܶĻʣͨϷؿ浽һʣȻϷͨеõĽԼϲĻʡΨһȱ: ÿͨضй֣Ȼ治ôеĹֻܰϵǸسصеܡҸ˰ɣǻе㷳ب߷ذTOP1СڣϷħָֻ֣ܰˡϷǽ˵ܵܶʮأʵУҽʮꡣţһֻһĽ㡣ߣĵģСѧ͵ʱ䣬͵ɣѧҴС棬˰衣һ滨꣬˻ţΪʲôΪʲôҪΪʲôСѧѧҪΪʲôȥ߿ӲãȻڸҪһԤưࡣһDzͶͬһѧͬһ졣ԭӣTOP2˯ΪһԼˣÿԣͨˣûҽͿ˶ʮ߹أ ȻȻҾȥкܶȴ֮ͬһԲϾͰߣܻܵ͵һһбܵʥǧҵܵǼظжȻż˵ģҲͦɰģȥʱʮһҵbugҵ죬ˣҶٱˡˣһϲһأȫ͵γлĻеĻԱǰ̨һ浽һأϷʽУǸмشĸǿһĸ֣мܣDZʶΪȫĵطҲû˭ˣϷô߲ѾʼȵˣTOP3bUˣ֮һһ͵Ϸĵж֮㴩Խڵ֮УΪֽ꣬İǧĹ¡ʵһĻĿϷ(_`) νϰˣԼԲԲɧˣİĻȥһġϷdz㣬ԣϷֵĴУʹϷ˿˳ȻϷŰֲеģңжַ3ٵҲ˾ѶȲ̫ضֲУȻǩ(_`) νеϷҿǷϵСѶӦòӰλĿٵϷ顣
-game ƮϷӲ 粻ġصǸճƮŸĵطеijΪʹ㳡û˾dzϷйҶΪ̵㳡ɱ׳ơԼSteamϵĻԾѾԽCSGOϷСɱձӰɱҲעֵ϶һɺݾӮñֱɱÿ100Ҳ룬˷ɻսصؼѰʣȻɱˣõʡڴڼͼϵİȫСȫҽܵԶ˺ɹ̭/ӣĻϾͻ֡ϳԼ8֣ҲΪʲôϷֽСԼԭϳԼԡwiner weinerchicken dinner˹ά˹ijһӮǮ˻˵ôһ䡣Ӱս21㡷ҲйϷʷûһϷܱȡɱĸΪɱڹ淨ҲһͬϷͬĹڱǹսϷ˶Ϊ100ֻܴ1ˣ1ӣϷCSIJܽǡװɱ쾭壬Ϊɱ¾Ψһ淨ϴַǷңǷҪйˣǵһҪ塣Ӳָ߷յܲɾͲɣǹɧġ˶뵱ǸȸڡͲÿֶáաŷѡǷϲɵ£û֮һ˶ǿӱǹҪǷššȺϰ߶ȱˡͿݡû١ɱԽгɾе¡ԳΪΪסġǷеLYBBռҪȺ壺1.ħȺſž;ţðʱķվڲݵר˺·ҴԽپԽִΪͼϵİȫСʣ¼壨ȫǸȦϷһʼСȦһϵѪ2.Ӱ̹˻Ӱ̹ˣ쾯˾̹֮һȻΣȴȽĹƫԭαװľԼеĻӰ̹֮ͬӰ̹ŭħͼʾеĻӰ̹˾ǶڹľαװԼҡȺΪǰţſڲݴķħҰơִҼֻҪαװĺãѱ֡Ϊ뾾Ӱ̹ˣ붢ŹľԿþãʱѱɸӡĿͶʣ÷ħͻӰ̹˸ӽЧЩȺ˸ɹɧĪڡ̥Ϊ˷ǿٽȫлСܶϷнͨߵ趨ʹƵߵĽͨɾǸֻؾߣһˢڹ·Ի߳ⲻЩһҵһ;л̥ãҼ治ɱҲ治桱һֶŶȦܣ׳ơʱڰȫ֮һֳɣһǴҩǹʼ־ɣһǡܲȥҲҪ汳ƹˤɡһŶȥܶңȺ˱֮ΪӡǷҶƻ˵ϷΪΡݴȺ˵ķIJǵСܶǷÿֶŵĽӳȥԶõ˴ǷǷͼϽʾ51Ҵͬʱų20ǷŰӰ͵͵DZΪǵجΣȺ˷·ϵһ㣬ǵ˶ˡ ҲʱҷǰһƬ¾ãֻҪһͻ˺ǹҴɷúԶŷ쳯ԽԽ࣬ҲɵӡLYBҲڳʱըʽӸϡеߣƽһԡ㡱·ѧǷһķʽĻƽֱϷ˺ߣҪǹƨϻԵӵ˸ԣ50˹ͬƽƽûĽĿ7-8ŵأס¡ϷչϣESLݱĽУڸոսsolo˫УǷֽҲƽ......ѡʻýƽƽ˵һĻƽĵڶ͵Ҳֱͭ......ϣйҲμαġè4űΪ쳯һƽ......꣩newfhmͻͷƨ / ν / ɫ / 칦й / Ůº / ë / սλ / ƨ / / Զ
-game DNFҴ70ʷʫˢͼԲŷǵͶ˴ DNFһݴǿװǴеıرȻijħˢͼһ70ʷʫʥǹ֪꣬70ʷʫԶְܲ汾˵ʵ̫ͣԻԶأںĵʹ¿һ壬û뵽һͶ˴УԭDNFô档էһװ㣬ע⿴99.2%൱100%ˣڿװЬħʯʷʫ֮⣬ȫԶԼ˹оף¸ǿۣҲǵͶ˴ˡ70ʷʫΪĺƽְ汾ûԸˢͶԨԺټˣ22%ӳɼϻ2˺+25%һˢͼ100%˺ȥͻȻ뵽ʿҲƵԣСűҲԲολҵװһ100%ĹʿϾͶȽ٣ܿɹۡ
-game ̵DNFһNPC, Ƿǵ DNFкܶNPCŴתʧˣΪȥ翴ˡ֮ðռҲˣ´½ǵ¼СһعЩNPCǡ1ҸоDNFʵŮˣΪɯĴǰЩͼֽΪǵǰиǿҪðռҸͻͲˬˣΪ취ðռǡΪҲǾҪðռȥϲץˡڴתƵʱ֪ȥˡֻΪ˸ģðռھзĺǺҶ²bossҲΪɫħŮûǾͲö֪ˣֻǿϧDNFôƯŮˡ2ΪDNFˣݵȥDzģȻĶûһǺûкܶҾݹӵBUG¸ģһڽǿȻٷˡDNFʷţĹ, һڽҿݿ˵DNFһNPC˰ɣȻΪΪݹ¶ˣԺֻʹ壬ҵﻹǺʧġ3Ӿһûпյġ仰Ҷ˰ɣڸſڹֵܶͣĽܶҵˡϧԴӴתƺӾžʣˣֵܶûˡҲŬĽˡΨһļʣͷװˣò˵ڿĻǾװܰǺɡ
-game ѶسԼ118ż, Լ? ڲ Ѷһҳ棬˺ܶ˵Ĺע飬ܶѶ˵һCF˳Լģʽǵɨ˹άԺ ᷢûôѶͼôʶ½βҲдdzԼΣǸϸĵˣ㾭TAPTAPעThe Last One֣ᷢѶͼǵͼһģһӦòר[Chao Xi]İɡThe Last OneִɱǸСŶӶзһԼϷ֮ǰһЧͼȾƵûнйκβԣһֱأҲܵ͵Ҳһֱθڡ֮ǰCF̳ɾ˴νڲͼʱĻֱֱӣģͶûãֱһƬ棬ٷҲûжԲκλظ˵ҾתͶ̵ijԼΣױʾѶijԼϷˡԽߣǹսߡҲһ棬ĵѵԼģʽ1117ڰߣҲCF״ʽԼģʽԵϢ˿ѶҲԼΣһCF1117ŲԣһThe Last One118ŹCFõӪɵģԼӸ淨ʲô⣬ĿǰкϷӪɵijԼֻCF,ս2СǹսңԼϷĿǰǾܾģԼϷҳ̶ҪȥſʽӪѶźQQÿ쳬10ڻԾӴûȺ˫ͬʱʹгңɼģ˶ʼ棬ԼҲû˱ѡѡ棬ѣѵѶȥ棬ҫѶεijɹõ֤
-game ϷҪеʵ?حʱ ʱǵʴĿ,ÿƳÿһش,ʲôϣҿĺ,Ҳں̨ǡλүǺ!һʱֻ֡Ϸ,?,õ:쵰ʿǰҾ൱ڿ,Ϸ־൱λ쵰ʿүֹںŷϢʱ콱콱(ϰǾͻϵ)~ҲллλүӻԾԡӭλүڱʱ·,ǻΪõͳ50ԪµiOSSteamϷѡһн(79)ʱĿйڵҪ˽һ,ôһ:桰ҫϷְ,㽭13кëë¥,ȫദۡ627,(www.thepaper.cn)㽭ѧҽѧԺͯҽԺ˽,ëëûΣ,̬̬Ӱ졣ëëǵͥ,Ͱְǹ,㽭ꡣ,ëëԼֻ,桰ҫ1,3ѧ,ҹæ,°Ҫ6,һڼҵʱӦöϷ,һͬѧҲÿ춼桱62219ʱ,°ؼҵëëֻͷϷ,Щڶп,һֱ档Ҽ˵,û뵽һ¾ϴ̨,¥ȥ˵,ëëȻ͵ҽԺ,ΪҹɹжιۡɹԶ˷ԹۡƹǷԹۡҸǹ,пˡ24ʱ,ëëתԺԺϷ̫,͵һҽԺʱ,Ҫֻ,˵Ҫ½Ϸ˺š⼸סԺ,ﻹ˵Ϸ̨ʡ˵,ԼȻԶϷ,æǵͥ,Ҳ̲ܽˡԺﴴƸԹǿ,ëëĿǰʹת,ɹԶ˷ԹۡƹǷԹۿܻϥؽڵӰ졣Աڵ:ϷҪеʵ?γ캡æǵͥ,Ҳ̲ܽˡڡûСҫ,ҲһﴦͬλϡȻô½,ǰѡҫڴ¼ûηϷҪҪеʵΡôĻʱ,ҲͲôˡν⡱˵ϷеĹ,,,ϷΪһʵڵĸʱɲһ䡰⡱,Ϸȷʵʵеˡ¡Ӱ,һЩ,ҲӦеʵΡʵ,ġҩ,ijЩض**,ֵط˵,Ϸʲô˵,ʲô¥һֱáԽ,Խ仰ͦõ,ȻǿˡҲбȽʵһ,ǿ߳еԽ,ʵҲǿij档ϷΪһ,ԽԽ,ʼΪóеʵ,ҲԼ档嵽ijϷ,гʵ,ôеʵξɡŪΪϷȻҪΪʵ,һЩϷɱʵ,ܸϷһ¡ϾʲôըɱɱֲֻϷ,Ϊ˭Ϸɱ˾˵ģϷɡ˵,ҫû¥,ǡܳûпܽ¥Ҵè!Ҫ,ôεʲôԤȴʩ,Ҫֵ̽⡣ϷꡱѾ̸,ȻҪ̸,Ϊûгĵġǿ˵֯ʲôӦĴʩʩȻһе,dz̨ҵ淶;ҲҪ,Ϊҵ㹻û,˵ľESRBǶʷ,ںܲһҵ,γ,ڷ,øĸѧУ?ܷܲһ?ܲиҵϷָ?˸оһı,Ϸħķ˼¥ѵΪ?ϷֻѹյһݡëëסԺʱȻҪֻ,ҿһС״־ǿĿߡϷҪ?Ǹĩõ⡣Ԫ϶Ҫ,˵,ϷŴʶ̬,ҶٵܵӰ졣,ϷȻҪϷݽһ̶ȵİѿ,ģ»ԭҪʵֶݵЩӢĵӰһ,ʱĺܰ,εġν5,ǰġѻӡⲻϷǵӰŷּƶ,ܵıӵͬʱ֤ҵȤʧԱȹڼֱһе,ּȻǸǵѡ,Ϊʲôּ,һˡ÷ַҲ´˵ĿˡҳԲѵ˵:Ϸ֮Դ,!Ϸҵߡûӵ,Բѵ˵:ⶼǺû!Ϸħ!ûôԡỷּƶȡǴ,ؾ,˵ҳźӾͲϷ?˵ϷҵԼŲʱ,ûдӡԵĽǶȳôƭǮ?һϷڸյΪ,˶ⲻϵ,úڴ,ΪԼ?ҪԿ,Ҫ̶,˦ϷҪеʵ?ӭλ·,ǻΪõͳ50ԪµiOSSteamϷѡһн(79)ʱĿйP.S.˶,Ǹϣλʵ뷨!ϻشΪ༭˹۵,ֹٷحڻعحֻϷ,?,E3˭Ӯ,˭?߿ǰʲôϷ?С,Ϸô?ʲôʱϷеAIAI?حؼʲ鿴ѡحح¼حäحֻححʵححСѧححĻححϷحححһ
-game ְҵѡֽᣬKTSKTˣDeft¶ΥЦ 921ձʱ1㣬羺ЭᣨKeSPAٿ2017羺ѡᡣѡְLCKKeGLOLսӹ80ѡ֣FIFA3Ǽ2¯ʯ˵ȡDeftScoreMataҲ˻᳡Deft¶˾ΥЦݣ黹LZPrayҲˣûгԷﻹһɿɡSKTĶԱҲμλBangԺֵķdz߰ѵҪǣȥѡ֣ǩԼʱҪע⡣ҪƭһЩȥйӡȻǹ˴Ǯ֮ôôǮǮء״̬ƺѡƺûСְҵѡһЩְϵѵ֮ǰLPLҲʼѡִѧһЩǰְҵѡְϵѵǣְҵѡֲôɡ
-game 1---ԼԼԶǹһѣ Һ ΰ֮ǰDzôϷֻϲӰͼƵȴˡԼĿһСĵϷϷ趨ͦϲŷǹսƬĸо100ŵĵϴԼǹеװҩƷȵҿԻ˵װƾ»ֻһʤĻϻһ֣ԼPSϷҲӣ׳˫ţĸӣ׳ţΰڴϷͬʱҲдһھС˵߾籾ϾʱҲڲ϶Ϸ֪ʶͼҲ˳ڹںһұϾֲ֣ǡϵеĵһƪԶǹͼȫϷԶǹ5һ1AKMʣAKMϷԶӭѡҿѡȫԶʽﵽʱɸ˺Ŀġҩͣ7.62mmϻ30չϻ40ϡжȣݵ (AR, S12K)ٵ (AR, S12K)ݵ (AR, S12K)ǹAR,ǹڲAR, S12KAR, S12KȫϢ24815ϸݣ2SCAR-LԿ5.56mmھAKMͬM416һսӵƿơҩͣ5.56mmϻ30չϻ40ϡжȣٵ(ARS12K)ݵ(ARS12K)ݵ(ARS12K)ֱǰհ(M416,SCAR-L,UMP9,Vector)ֱհ(M416,SCAR-L,UMP9)ǹ(ARS12K)(ARS12K)ǹڲ(ARS12K)ȫϢ24815ϸݣ3M416Ϸõ£M416ӦսеĶѻ֡ӵеͺоսɨߣǵɱܵܶҵϲҩͣ5.56mmϻ30չϻ40ϡжȣM416רսǹУֱǰհѣֱհѣݵ (AR, S12K)ٵ (AR, S12K)ݵ (AR, S12K)ǹAR,ǹڲAR, S12KAR, S12KȫϢ24815ϸݣ4M16A4M16A4Ϸõڳ뻹оսжзdzõܡЩһڽս滻ǹǹM16A4һɫɿʽҼȿѡԶʽҲѡȷ3ҩͣ5.56mmϻ30չϻ40ϡжȣݵ (AR, S12K)ٵ (AR, S12K)ݵ (AR, S12K)ǹAR,ǹڲAR, S12KAR, S12KȫϢ24815ϸݣ5Groza¸µԶǹ˺ͬAKMһģAKM֮ͬ䲻ʹ4ϵľѻԼȻҲˡҩͣ7.62mmϻ30չϻ40ϡжȣڲҵݵ (AR, S12K)ٵ (AR, S12K)ݵ (AR, S12K)ǹAR,ǹڲAR, S12KAR, S12KȫϢ24ϸݣС飬ϲһԶǹΰһıעĵͼֽʱҵѽ㡣ԭͼ1080P壬ںţΰӰң̨ظԼɻȡأ
-game LOL³װյBUGһתû LOL汾ƳһٶӢۣȫмϷڶУLOLӦһЩӰϷˡϷڶжô𱬣ʱĸ棬ЩϷܻᱻһϷ棬ԭBUGӦǻٵϷ϶һءѱʾLOLʱΪһװװûˡвҷԼ¼˳ŬŬʱҰװϳص̵ҳװûˡ˱ʾαϵͳԵɣعƵԼأBUGϷձAggroΪһȫΪBUGܴΪҾ߶ȼУװ˻ûӦLOLҲв֪BUGվȪˮҲɱˡǹ˫ȣȭͷBUGAggroʾ˵λѷشBUGȭͷӳܻýءСƵ
-game DNFһħ, վ8W﹥, 4692 ΪװںܶװǿƣϾװװְҵ˵ܱȽǿƣǶְҵﲢѡλħȴĵĴװħڵ³ϡְҵŶڼְҵħϷСλħܱΪһħΪħվֵﵽ4692﹥Ǵﵽ8W1ij̶ȡ¹ħְҵﵽĻδ֣⡰ħ˫ԿװӦ13ϡңħվֵսﵽ41ƿֲܴﵽ̶ֳȵħмʵֻһħϷмħְҵĻDZȽ϶ģλһġ˹ħŮװⲢһⷨϷҲDZȽǿǿԿⷨĴСϷжȽϵټⷨҲȽϵĸߣ¶ܴ˺ħȻϷпܱȽϵϡУְҵ˺DZȽϸߵģװȽϺõħһͷءħΪͷϷжǿ
-game 湫DLCԤվս ؿĦСݣȫDLCݡϷ117շذ棬127շʵ棬۸Ϊ5800ԪԼ341ԪУذصΪ5ֳʵصΪԭCD趨Լ⣬ٻˡDLCԪ䡱ԤƵĴսĻDLCԤƵԪ䡱̨ڴ֮սʱĴսµĵˣߣܣػ飬ȵ⣬ģʽֹУǿĵ˰Ƿı꣡ոߵǾնսԼļޡDLC926ϼܣڴƵ棺
-game ȡʽع,Ҫҵȯ,ռѶһ ҫмߵ70λӢ,ǾǶλսʿ,Ӣ۽715յ½Ϸ,Ϸ¶ȵĸ,ʧ˼ԻľΪӳijСӢǷdzǿƵ,Բοĺϵ½Ϸʱǿȡһӷɵ,ڵеĴ,ֻһĿɼ2һСλƼ,˺,ڶѣλЧٻħ,һ״̬,ȫ״̬֮ǰıм۸13888,588ȯû뵽һź,ռӡ,15ŵ½ϷҲԻӡ,ӡǿѶһӢⲻ,ϲ?ʱ֪,ԸλǧҪӢŶ,Ƽһ׳װ:+Ь++籩+֮+ꡣıҪڿ֮,ļ֮Ⱥ,ҫϷ,עҫ!
-game DNFװ˲Ѫ, 㾭? ۵ܻĻָһHPֻѪȽٵʩšȻ90汾ôǣڵνǺ۵жΪܾԼһ?ȷʵѪDZȽҪģְҵȱѪں˵ȽϵҪں˵ѪȽٵʱѡװˣȻʹܼܣӶԼѪ˲Ļڵʱ֪ģرͼܶ˶ѡװˣȻͼܻѪΪװ˵ʱֻôѪװѪûмӣ㴩װ˲ܻѪBUGȻֻк۵ܻѪڵʱѪҩƺҲЧԺܶԼѪʱԼװѵȻϻѪҩȻװ˲䣬Ѫͻǣ̳ҩЧҪáЩѪڵȽϵĻ𣬺ܶ˶ЩѪƴӶʡҩҪǣԼ֪ʿǣûоװѪ?
-game RNGSKT±Уѵ٩ţζİɣ йͳѽˣٽS7УԺܶйѡ־ûͼžˣȻЩźɣܺһЩСһҲġ֪𣿺ҲǹŶǽڽϦڣΪ˴ζǣҲڽǰԼף SKTٲϢǸոյRNGAHQսӵͼƬӦ±У Ӧζ Ҳѵ٩ⲻţζİɣ ιιιok ˵ӦEDGһɣϾҶA飬ҪɼܵŶ
-game DNFĺűһ, ˭ʶ? ĺͻȻѾ⣬òҵ룬Ѿ֪߰꣬ⱻĺŻ?ΪңӶʱ䣬ʱѾţͻȻţѾȥԶ˵ⱻĺѾȥôãñʲô?ģҵ¼Υ˺šҵһţװĴڽϣϡļǵãΪһװ60汾˵DZȽϰġֿл൱Ƚ֪⽣ȡڸɫУҵͨװװԣװװװԿ˵ټǸװװԵIJࡣʵһսɫսɫΪһҲǰש˺ܾáսŵ˭ʶ?ο¾֮Уܻ˵¾֮Уǿȷĸ㣬¾֮УֻҲ֪ȻЩŽɫڵǰ90汾˵Ⲣֵһᣬ˵Ļ䡣ȷʵ˵ʷʫװ룬ԽԽϷͷˢʬһĻĿ
-game LOLŮѺΪʲôû˹עҵʵ LOLȦ˲£S7ܾWERNGǿ55͵ɫֳ飬ֱŮѻɳɫ55˺ѾռͷȻⲨݣֱռѵһLPLĹûˣΪͷеࡣ 276㣬ºȷijơΪʲôû˹עһֱʵֻϲ嶯飿Դѱʾ㵹ǺúôǶ֤Լһûгɼôܵõעֱԣ£˶ûѧᣬôɴ£ ļʱΪNB油ADѡ̨֣Ǽֺܲܲɷʱ˵Ҳʱ˸̾ڳˣҪתְҵˣȻûٵdzһ滹Ǹ棬ɽıưɡ ϷձAggroãɫ55˺ԼֱŮ£ǿ˹һɵġţ֪ᷢЩ¡
-game ҫ°汾Ķҷ²ۣdzǮͲǮ Ӧ1019տµİ汾ҫٷȴ°汾bugԭ1019ո°汾ƳٷS9Ҳ°汾һһѿը˹ˣһʱ鵽µİ汾ĽҲҪƳˡϿȵµͼģͷųҲѵ²ۡٷΪµͼƳһҲ硱ĻȴҸ²ۡŵͼɫһְɫ˲٣ҷ²ۣdzǮûǮµĸĶȴҵ⣬ȥҩ裿λô
-game RNGҰMlxgֱʱũ Եȫǣ RNGսӡӢˡֲҰѡMlxgֱʱһٶȻֱʱڿһʧֱԶԷǡũʵũ˼ʱʾũɵX˼ֱ֮䵯Ļ˲䱬ըѷʾ˼DZIJˣ豸ûרҵûĶ࣬ô߹ũֱϷͺ?ҲΪ⣬ǵصũһ٩˼ǶĨũ˼ڴѵУ˼ڸɺ̳л磺ڲǰҲ϶Դ½˵ǸıⲢũûעǸֱʱ˵ȷܲõӰ졣ڵͷչ㲻ᱻ̬ըµijҲʶһ⣬ǾǴְҵѡ䶼ȽСDzʱõԽнʺĿ˵֪λСοһ?
-game Ϸ¼Switchж?ǺͿ VGTIME2015 עϷʱVGtimeSwitchϷ76,ڶ Wish Fang ƽ̨ϷI and Me Switch ƽ̨ۡ629,Ŷ Hunter Studio ĺ涯ϷʧDZ2017ļȵ½ SwitchI and MeЩ⡣,PCϷڹܵԽԽĹע,ԽԽʷ/ԸЩƽ̨ƳϷSteam йûѴ1800,PS4/Xbox One Ƴ˹а,ڳ,Ѷ,Ҳع/ԼϷƽ̨ڹڿ/˵,Щƽֿ̨ɼ,ʩչ̨ Switch ⡣ǫ̃ϷԷ,ǿϷݡصļû & Я豸Ի˴Ĺע,гҲ൱á Switch ûй½,öԴ½гһֱȡ̬,,ںܶϷ˵,õƽ̨ǡһ㡱ġ½ƽ̨,ûôʧDZôһϷ,βܵ½ Switch?ʹDzɷˡI and MeĿ Wish FangʧDZ Another Indie ڹҵĸ EricѾж Switch ϷĹڷнϷ(CIRCLE Ent.)ϴʼ/CEO ChrisڶϷƽ̨ indienova ķо ROY,ϣܶԹϷ½ Switch Ĺи˽,Ǻ Switch ֮ľ롣ΪʲôҪ¼Switchڡε½ Switch֮ǰ,ҪȻش:ڿ/˵,һϷ,ΪʲôҪ½ Switch?I and Me2016 Steam Ϸ,һֻɫ״Сèͬж,ͬʱյΪĿꡱĽϷ, Wish Fang һ˰ơ̡֡Ϸ Steam ϻáر(96% ), Wish Fang ˵:(Ϸ)Ժٿ,Ķë,õĵ,ֶһëϷȫƽֲ̨,ʱдһԼϷI and Me淨һĿȻI and MeǴֲȫƽ̨,Ѿ½ Switch,Xbox One Ѿڽֲ,PlayStation ƽֲ̨δȷ,iOS ͰԺ϶ʧDZҲ2016 Steam ,кֽ, Switch,Ѿʼ PS4 ֲ,Xbox One 滹δȷϡ Switch ,з Eric ʾıģʽdz Switch ԡȥ,һ Joy Con Ϳһ档Ƴ4˾ģʽΪ,϶ϣϷ½ܶƽ̨,øҽӴ Eric ڲзʱᵽ,(½µƽ̨, Switch,)ɱҪ뿼,治ܵӸƽ̨,½ƽ̨Ϸع,ƽ̨дٽЩDzġAnother Indie ǰҵҪǺϷ,硶:֮š,ڵҪҵǹϷĺⷢ,硶ʧDZԭʼó̡ڸƽ̨ѡ,indienova ķо ROY ʾ:Ƕ,ƽ̨Ƹ,Ϊƽ̨Էе֧ȶȽϴ,Դ,̳չʾԴԼýԴҲҪǵ,Steam ķбȽϷ,Լܲ;ƽ̨Ϸϼ̱Ƚϳ, Switch Ϊÿ,һЩ鷳ڲɷù,ҷ̶Ϸ½ Switch ƽ̨ʾ,Ҫ¼:һʻȵƽ̨Switch Ƴƽ̨,ܹעȺܸ,һֱ,ںȻȻ Switch ȫװֻм(ùٷ:ֹ20173,Switch ȫ274),Ƕġʺ϶Ϸﲢ˵ Switch ֻʺ϶Ϸ, Switch ʺ3AϷнϷ CEO Chris ָ:Switch ĿǰƷһ·,Ҫгɱϵй,õûԶϷҲõӭ϶ȡEric ҲᵽʧDZк:Ϸdzʺ SwitchSwitch ϷҵǶ,DZȻעROY ʹ̸:Ŀǰʱdz, Switch Ϸȱ,ڵ½,DZȻкڵġ EricҲʾ:ҵǶ,(ѡ½ Switch)Ϊ Switch ƽ̨ϵϷࡣõ黳νܲɷõķԼǽӴĿ̶ʾ:ϲ,ϲ Switchҵ̫ɹ,ҲԸô,Ҳ˵黳ɡ ̸ꡰҵǶȡ,Eric ˵(Ц)нϷ, NDS ʱھͿʼкϵĿ/, Switch δʽʱ(ǻ NX),Ѿ Switch Ϸ, Switch ϷաǸġChris ˵:Switch ǰDzûйг,ֻǵƽ̨ƳЩƷ ԼȦεIJɷö,нϷרעƽ̨ķ̡Chris ʾ:ڷ̶,ӦȽóгŻ,гϸԼȦ,гһչ,ȦԼ,עԼý,Щ˾ǿӲֶġʼնڹ᳹һµ˼롣нϷѾ Switch Ϸ7Ϸ,ж Switch Ϸǰé,ڷ۵ġ۱(Implosion) eShop շŷҵѴﵽڶ,ӢλӰסнϷкܶϷƻ½ Switch,һֱŵ,йԭ Switch ƷȻ,ҷ̶ԼĹ滮,ѡһƽ̨,Ǹȫƽ̨,Ƿ̸ԴгжϡϷƵ Switch ϡ,ЩһжϡнϷһרעƽ̨ķ̹Ϸ¼Switch,ѹڿ Switch ĿȨǼѵġChris :ȷʾ,ֹй(̨)Ȼ, Switch ȨҲûô,Ŀǰδȫʽ,ܶŷ̵δͨнϷȽ,ձ˾ PSPNDS Ϸ,ֱ֮ȫl NDS3DSWiiU Ϸ,11ꡣ Chris ж,öȫӳ̶ȴԼ:ձ > > ŷ > > йг,һֱŽ̬, NDS ʱ,òų̨ij,ֻǶԴ½ȽϽ(ʱ½),3DSʱ,ȡսIJԡdzõ:ءϷչ BitSummit 4th(2016,),óչ ȫò,ձءEric ڵķŶ Another Indie Bitsummit ձöνӴ,Eric ôǺձ̸ʧDZʱ:,ǵϷ,ܿ!ѽѽ,ۡĺÿ!̸̸ܲƽ̨°!Ŷûˡ Eric ,öйƷӳ̶ԶԶġΪʲôöйг̬˽?ùٷûиӦ(ҲӦ),Ӳ²,dzгж,Ҳûȥ˵֪ͺ,˵֪֮Ƕòȡij̬,֪,ȷԼڱȱʲô,ҪôǰһChris ںõĽӴ(ǰñij߹)˽,öйϷ̬ǡáԷδ˵ԭ,Chris ݾ²,ΪйûȫҶ֪Ϸ,Ϊйƽ()ԼֳڹѡIJ˵,ٴ,ϷƹպȷԵIJࡣнϷƻƳĶϷ,ȻйƷ,ֶǺ̵ϷⲻҸ˶йϷ̬,й(Ϸ)кܴDZӹɵġ Switch ֮ǰ,ϷҲ½ WiiUô,I and MeʧDZЩϷô½ Switch ?˵Ҳ:ίӵ Switch ϷȨĺⷢ̽зСI and Me Ratalaika Gamesձ Rainy Frog зСʧDZе Another Indie 5,ֱİϡӢ Iainڿ Vladйڵ Eric AllenձDZں,תϵŷ,DZߵ̬Կ,ɴ˻ Switch ϵķȨʧDZǵĵһ Switch Ϸ Switch ķȨȫͳһ,ŷû÷Ȩ,ȫϷROY ڲɷбʾ:ķ̶йϷdzȤ,dz֧йϷ,½,ҲкܶຣⷢԼϵϷΪÿ,ڿҪϷԴ뽻,÷ֲ̽ػԴ ROY ᵽ,һЩ߶ԡԴ롱ִҪܿ,ֲйڿ˵鷳,ȻֲҪ֧ġWish Fang ʾֻҪֲػ(롢ݵطּ淶Ϸزĵ)еһЩϸȷϡI and Meձʱ,ⷭΪܥȃWǡзæһ PV,Wish Fang ʾԼĺ,ʢ̵רҵ档,пôô?,ǰڵĹͨɱ,ֲʱɱ( Switch ֲϷһʱ3,ƽ̨һҲ3~6,ʱϷ), Another Indie ķ̻ṩػ,ЩػʱԼеáڷеҪʱ,ּз,ձ,ȫ eShop ְϷ,ƽ̨(ձ CERO,20Ԫ,ԱһЩ)еص˰ԴȪ˰(Ԥ˰,withholding tax)ƽ̨ķֳ(30%)ȵȡзҪΪϷųչýˡⶼϷڵ½һƽ̨ʱ,/ҪġЩ,һ()Ϸ½ Switch ʱҪһ:ϷΡż:ǿϷô? Eric :Another Indie ôõ Switch ķȨ? Eric ˵:Ҫ鹦Ϸ,Ϸ˵ġ˵ Switch ϵϷһ,ûвƽӹϷ,˵,/ѡһϷ½ Switch(ƽ̨)ʱ϶Ҫ:ƽ̨١жһϲϷɱ,3000ݺ30000ȻвġкܶϷ½ Switch, Chris ,ֻмһϷúܺáôϷ Switch Ƚܻӭ?Chris ΪǰһЩȫ/ġ羺/ˡϷ Switch ϺDZ,һ!(Snipper Clips)õӡһ! Switch շ2017ϰϷھнϷеĶϷ, Switch Ƶԭ(ԭ)ƷֲƷҪǿܶࡣֲƷ,߱ʶ:ΪʲôҷҪ Switch ϷֲƷڵ½ Switch ʱԼһЩݡ֧ HD ȵ,ʱ,Ӧ˽ƽ̨ûƫúͷеϷгĻ,ԴΪƵij㡣ѡϷǰ,̻,Chris Ǵ·Ϸ:ȡϷԡгλǷƷЧӦ깤ڡĸӶȡ̵϶ȺԵȵȡChris ΪϷӦڴﵽһ߾ȡȥǵ½ƽ̨,ԽһЩ߿ȰƷŵ Steam ԼϴĥƷƽ̨,ֱӵ½ѹʵġ,˵,Steam Ϸ㡣ʧDZ Steam ʽǰѾṩ,˴µ,ۺҲڲ,Ҷȡ½ Switch İ汾Ƚơһҷ˵,һггͶܵгϿɵIJƷչΨһѡȻ,Ҳôɵġȷһҷ̽к,͵ĬҷδвƷõƽ̨Ϸ,ϷΥһЩƶȻͶ,ûὨϷ¼ܡ 3DS / WiiU ʱ,һЩϷ̴,ڽ Switch һʱͲ̫˳,þЩ̿/Ȩʱ,Щ̵ȼdz͡νгϿɡ,͡Ͽɡһ¡ЩõϷ,ûЭƹ,չṩչλ,Ϸ,ûƽضԴϿɵϷһ,ЩûõϷҲдӡг,Ϊ,ȻϷòͬϷƷ,Ϸ,϶úõ,ϿɡڶйгйϷ̬ȱ,Ҳȱ㹻Ĺע,òֹѡʲôϷβɷõķ̶ڹעйϷ,кܶຣⷢڹעйϷ,óϷ, Switch ƽ̨,Ҳ߳һ·߳һ·νġ·:йϷ,ȫϷҵעйгҵϷ,ҪùϷͨƽ̨⡣Switch Ȼûй½,Ϸ½ Switch,ͬչʾԼƷ,úע;ȫ̶йϷгĹעڲߡ˵öйг̬ȱء, 3DS Switch õһϷƳ/ƻƳİ,İ,IJעйгô?ҲȻڹڿ˵,Ϸ½ Switch ˡҪһ֡ڡ̬, Chris ڲɷ̸,ΪΪ,١ڡ,㡣ں̫ϡƽҾӦץס,ѧϰһºгڹϷǺͺϷͬһƽ̨ȫû,ҪϷ⡢ƹաĻںԼľ,ڱԼɫͬʱ,ҲҪȥ˽ڻ㺣˵,Switch ʲôϷ?Ϊʲô?˵ܶΪʲôʿ,ʼΪȥ̽ԭ˷ʱ,҂ӦաʿɹƷľ,ӭûϰԵơ Chris ʾǴδֹͣ۲ѧϰʿ½ PCMac,Լļƽ̨,ֹ 20161214,ۼ150ס 3DSWiiU ˲йķ,ؿʵϷͨ·,ȰѹϷƵ,ҲȡϷйг,,İ档Indienova ΪߵĶϷƽ̨,Ϊṩ̳,ƹ,ͨߺϵһǺຣϷнӴ,Эڿߺͺ̹ⷢͨAnother Indie ǰҪϷĹ,ҪϷȫСڻ Switch ϷȨ,ǼƻϷƳ Switch ,һϷԭʼó̡ͻ½ SwitchнϷкڿߺϷ,ƻ½ SwitchΪϷʱ,Chris ʾǽܶϷ,ԷṩĻ()İϷûôһİжֵ?ɱʱǶ?϶ô?ⶼǿжǷİʱῼǵ⡣нϷֻܽ鿪̼,Chris ϣи˵ϢÿԸ( Switch )Ƴİ,ڹٷûйݡ,йж Switch û,û֪(ÿ֪)Dzһȥƿ,,ת5000εͼ߿,Ҳڴ1/3˻ΪǵҡΪ,Chris ˵ЩΡ,ֻϣλѸ⡣ͬʱҲϢϢ,йܸĺ,ĻܻϷ֮ȷβɷ,ǽӴķҲ,ǵϷһõ,ԸѾ,˾,ȡ Switch ˵ƽ̨ϷϷ Switch µĻ,ϷォͺϷֱӾ,罫ͨƽ̨ǡǵҵһֱȫ,ͨƶ̼,ʹҵδעйг˵,ڳһ·,ϧʱ䡣Chris ڿʼܲɷʱ,ǵԸͼƬϷʱApp,ȡྫݡĶԭġ
-game ҫ: S9֮ADƪ, Ϊʲôô ûӮΪûעڰɣҺãǿھӭĵ羺ѶϹأۺģϷҫS9ѾλADиˣƪߴĹԣУadڸ߶˾ʵҪλãŵ5Ϊ߶˾ֻûкadӾллˡԹadʶΪadһǧãҰļҰ˫buffץ˻ǾͲøad·һضߣΪˣһˣһʱֱӴӲݴǹȥѶϵ߸ˣҾͲ˵ˣӦöסپadһ˶ɱʱһмҪֱȥ·֧Ԯеǿ·Ҳ˵adһ·adѹƶϵʱһҪԹԵߣʱֱӺȥֶҰƶҰáadмDz˶Էʱ·äĿ뷢ٸӡ ·Լ߷ʱһͼϵʹҰģ㿴ͼҰץϵʱѡߣм̽ݴԲܱϵˣסһ£̿ͺսʿʹ㣬㣡ʲô²ٴߣܹӵȥⲨʱСͼֶҰͼУϵҲޣʱһ̫룬ܿץˡadҪʡָýͽҪȵٽ˽͵ûسǣһץͽˣѪܽöسǵڼ俪ţadһסŵʱҺԼλãٺòվλãо·ϵɱԺ㸴ԺһҪעⲻҪäĿȥú죡пܶں㣨߶˾ְٷְٶ㣬ȥúһСʶadһѲóɵģʽܶʱˮadȥ˲¶ˮʣһѪûԼȫ˶淭̵ĻᡣΪھԭδֹǷתأ
-game ҫ460أͭ99ǶСװ ҫУΪ˵ʱʲôأӶѹһͷСֻܸ˵Щʲôëë갡ʷʫ460Ͳ˵ˡСʹʶһҫеЩ460ӳٰɣ ԭǴ˵е¶ˣΪʲô¶ȻijƺšЧС˵ֻϼӵƤܴŶ~ ǹӽ۶𣿲ûȫǿˣѪڵָû¯ˡ ʲôҵ죬ҼţĶλǿͭIII99ǵġǵٴ100Ҳͭ˰ɣֵܣΪ ۻ𣿻һߣҫʲôʱһװ氡ĵĵһɫԭ̡װѵǹٷһǰϣˣ¾ΪҷˣϣϲСĬĬһ䣬ҫУЩȽ460أӭ۽
-game 糤˵07ЩϷıද˴ƴĨȥĺʷ "Ϸıද"ЩƷ ܴ뵽ģǡFate/Stay Nightʯ֮šֽЩƷСʱġ鱦Ρ棬ֻǵʱСС顷汦ڴ֮֡ġ ¡ıĶܴҾֻжţIJˡһΪö1980ʱΪԶûмʱڣһڶԭϵвδΪ䡱ٷڵҰ ʵˡ¡֮⣬ʱһЩϷ˫ˡʲôģҲǸı˶ƷһЩڹڵ̨ҲŹ糤ЩƷʱ֣DZָͬһ˾ҹ˾ǸϷͶΡõȵҵͷɺһʱȴת˲֮ȵףΪ֪ ڡ糤˵ҹ˾ǸϷıදƵԤעǵĹںšϷо硱yysaag¹ؼʣɿྫݣ | | ֻ | | 糤˵ | ־ | FC | | Ǿ | | ħ | | ʦ | VR | ȷ | 鱦 | ʦ | ҵ | ̵ | 糡 | ǿ |
-game ⡿2017»ٿ »AGAIN2017 AutumnҺãǶ飬ֵ˿زʱ䡣ݹٷͨ棬1110ά1124άǰ»ٻȻдAutumnȻѾüˡҲϰˣֻҪлͺãɡ֮ǰλԵIJ»ˢͼ:ڳˢ300ͭƶһһݳװȻ˳Ƶ()ƻ߽װˢ300ƺ(Ľ࣬ҲࡣҿÿһѵĽƵȻձԼװĶ)Ȼȥˢ˳Ƶ֮ˢڳˢͭӶһ̵IJϣȻˢƶһ̵IJϣȥˢ»һι֮ǰıͻرգԤѡ;ƻͲɫƻˢ꣬Ƚٺˣص»ʷһˡǵţ̳ĸףȻԵǿãյ12ڿݳܣʥ˵öʮּϣʥͷͳ137£dzԵˡ»Ȱһʫˡߡݳߣߡٰʢľᣬ³ڹԪ60ٰ˵һ»ڣ֮ÿٰһΡ»ϲμӱdzΪʤߣҪΪԪԺͰڶˡѹǵųô(Τأ)ͳƣ»һõĽһǧ»ֻ죬Ϊûȵ=_=һεĿԤӢ鶼ף»ǵڶµľӢ飬˽ɫFGOлźܸߵѾٰټ310»ˣȻǵӾװһC쿨ڣǿȲͣڴҲΪοصӢ鶼ףͼһ£ҪǸ˽ںӵһЩοһ. »˵ۣDZȽֵֵӢ飬ÿͲˣǿҲԸԽӣ˵һȽȫӢ顣շڿ˱߱Ҿǻ봸Լ۱Ҳߡʵ˵ܶ˻Ծ˾ضԱȣ϶Ǹӡְ汾»ı⣬ȽԴħŵ˾һ࣬Dzò˵ǿûޱģϾԴ45%npȡ˾ظעر˾DZӴּ߱ؾ÷ϵߣó˾ûл˾á40%&Ƿ50%غϣ3000Ѫ&20%غϣ˵ǹؼ汸ңܶǿѡģֽкܶҰѻգҲһֲĴҾǸɡ. »dz黨ĸƷܴ˳鵽Ļһ鵽»ҪѲ̫ģȻֽιԽԽ˭֪w()w»۵ļܴžܡʹӭϦغ3սCD10غϣǹڣB廹Dzһ㣬Ϳˣ˵ϡ ȻοصӢ鶼upһ»ս. װò˵滹൱ϲģ»ղĿһ봡װʹڻҲкܸߵķԣװаҲǺܿǰġҾͲ˵ˣҸкöȻЧϿһŻûʲôõװij̶ֳϽ͵ʯͺ챦ʯߵĹ233ʵҲǻôװкħţȥľGˢͷʱõ鿴һܵ˵λĹؼغѱûлĽһ£лԤĵþͲҪˣϾ֮ǰһƭ봿ϣΪףɶɶ FGOյ
-game ֧Ϸʱ, ? ڲΪڹвټ˵ȥֵûл㱵ġ2017ϷIJڹҲܶûģˣSTEAMƽ̨ϸֲˢȻôһЩҾǺ˵ҶΪҲˬôãϷйŪĸСøǺϷģ㿴ǰûʲôڲİɣȻڸƽվӪݱʲôƽ鷭ĺDzΪûе˲ȥ棬ǡǡΪ֧㣬ŻƷϻǮǣǮұлǮܵӦеĴϷѵͬʱȷأϷǮˣ˿ûг⣬Ǯ鲻ûǮģộΣһ⣬ϷȻйˣ͵ÿйҵĿζûʲôɣҲϷʽĻҼϣйҿԿö˵ʲô𣿽ȫûѶȵİĻԸӣϷԵúˣȥֱ߳Сԣϰ㲻ҪˣϰǸ콷ҾŲţƼƼҵꣿҲѾʴ˺ðɣ㲻ͨϵͳ˵㻹ʲô˵ҷǸϷѾ˼㷴ʲôֻͨϵͳʾϷ˾ȷʶԼĴϾϷ˾Dzģӣ裬Ƶ鲻ͨʵʵʧȥͱõĴϵͳ⣬Ϊ˿ȡİɣϷ۵һϷ۵һϷҲ۵һʲôΪ۵ıΪɶƫƫһǷġأ㵱˶ȫ𣿾ǹפʹҲ˵Զȫοҵͨѧ磬ûзû飬ûʲôȤԣˢôˣϷҵĸоǡ⡱ǰСǮϷôʸۡ˵ҵȻǮϷˣôʹʸʱ˵ʲôûǷľǵĹOKͶԺѣϷûģܲ˰ɣ
-game ҫ5Ӣ۲ǿ,ӲԶ ңԶľ벻,Ҳվǰ,ȴ֪Ұ,ҪӢϷ,ȴbanˡӢ۱ban˵Ӣ̫ǿ,Ҳڶ,ô5Ӣban?NO.5߽,ban:46.61%,ʤ:53.24%(ͯԧһ)ױȵ˿־,,Ҳѽһ˵ߵ˱ض,˱ض,Ǹ߽൱Ǽ,ֱսըȱûʱ,ҵرǿҲûбҪʡ,κ֪զʱȿ˵,̹ȼ١NO.4,ban:55.67%,ʤ:50.13%,Ѿǰսûͷ,˺ʵޡͷյĻ,ոǺǿ,õĻպü,⡣һŵˢҰܿ,ԽʱҪΪԼ,ϾѾܶ,һᷢȽ֮NO.3ļ,ban:65%,ʤ:74%ܶӢҪ,ļȴ,Ǿ㲻Ҳܺǿʱ,1ܺʹ˫,ͺĶѡһ2ܳǿѣ,,ӲIJļֱǵ˵ج,ɱɱĶѡϲļҪ,Ѫӷǿл,ͱƵòļܳװNO.2̫,ban:75.86%,ʤ:55.09%ƺ,ؼǴпԸ,൱75,սǿ,ƽʱӢ۶ôô,û뵽,Ӣۻϰռһbanλ̫ҲҪ,лѪҲǴӷǿл,Ƶ̫Ҳܳװ̫ҵ˺ǿ,ҪСըŶNO.1¶,ban:79.92%,ʤ:52.87%¶ҲDZ˺ܶ,ֱȲϴǰĻ,Ի¶ȻǺ,ֲȷû¶ȵĸ,banΪʵҲ̫ϲbanرԲӢ,ѡ¶úܺðҴӮ,ҲˡϲbanԲҲܶ˵Ӣ,ڶbanѾ,㿴һbanѾúܲ˵Ļ,벻Ҫ,˵ء*ԹٷƵĿݷ5Ӣ۾ģʽ,ban5Ӣ,ǿעִ·
-game ųԼ֮ѡսƪ 羺ձ ˵ĺã£ڳԼ;УֵdzɹԼҪڵŵʱÿֻѡЯôҪѡԵ÷dzҪˣ ڵųԼѡУһһԶһ˵ǻһִ䣬һԶһнõѡڸ¶ԴݲȵӦԵˣƼS686 ŵ˵S686νǵųԼڵǿԱ˫˲ոر֮ѹװʱһ˫ڳΪոS686ȱǻdzijȱлᱻķŴȻڵȴûôǣֶ1V1ijǹ˫һŵ㱻ŴˣԵ㿴S686ڵϵʱҪԥѡɣ S1897 S1897ڶŵʱS686ģϾӵ5ӵӦĵˣŵʱѷɫS686Ȼĵ˺һģһڵ֮УS1897S686ġ ķѷǹ °汾Ժ֥ӸֻǹǿȫͼˢµģΪijǹķѷĿǰνǹĽս֮AK֮ķѷѾȡAKнĵλڴϾѻǹ֮ǿĸоĻĿǰߵһ UZI 뽻սУǹԵֲǹģûҵǹʱUZIҲһѡUZIǹŵǶʮֵѺã㲻ϰڽӵкʹĻUZIõѡ(PS:༭СξܾUZIԭǹ̫) UMP9 UMP9׳Ƴǹо൱ɫӵڶ֮һоdzڽı־Ͳôˡ Vector ڶ̽ǹոߵʱνɱɱǿĺDzڵĶ̽нֻ13ŵݵӵǶ̽Ӳˣѡʱʵ벻ǿѡ̽ʲôΪ˸m416һŵλðɣ սƪȵˣȻҸ˵ļҲʮֵijɫǷҲ2000ǻϣдаԼļҲôѧһЩɣɹԼ·ϸһһڵлʹҽһͻǹԼѻǹѡϣܹϲ
-game LOLӢܼЩװҽһβԣ ǰLOL˵139λӢСģʵײУһЩڲԷʵսЧQڷǿ֮˺ߣѪĴƤһ¾ˣˣWԷָΪLOLһȫµĻƣWܾԸЩܺװЧЩұȽԺһöԴ˽һβԣDzϾλҵȫԽԿЩװܸƻDZȽϱ̬ģ꣬ưܵȵȣݲԣǶСӦнһ˽˰ɣ
-game CSGOɳĮ2ͼһǷų ˼Һ CSGOɳĮ2ͼ ͼܳΪһÿһCSУӦöôźϲһ治ĵͼtrainaztecinfernodust2ȣеľͼرdust2侭̶ӦCSı־ԵͼˣΪܹϲͼdust2ܱ֮ΪǹͼһԭŵͼڹڷdzܻӭһԭΪ2005ESWCܾϣսwNvԾ¶ھŵͼwNvսΪTԲ1ӵʱ¶֣֮14֣ƾžԵıȷսʤ֣һٳΪǿCSսӣɴdust2Ҳdzͼdust2ֻCSϵϷбܻӭFPSϷȻȵͼ֮һCFսϷУdust2ɳĮҡСѱĻƣ䱾ʻdust2졣Ҳ˵dust2ŵͼľ̶ȣ㻻ϷȻܵǵϲǰʱһֱдdust2ӭϢûʵ֡1010賿CSGOƷijdust2¸Իع飬ǻķųһdust2ϷͼѱʾnukeinfernotrainѾˣʱֵdust2ˡŽͼĽǶʾҲ²ӦǷ˼ҺԺǶǽҲΪA⡣ϷձAggroCSGOҵƵ㣬ֻǷ˼ҺԺһЩȻλɫȶģAggroŹٷһᱣdust2ĺԪأȫµdust2ҲҲһϷ顣ʵ֮ǰdust2ѾCSGOٷ˼Сĵֻľ˷ʤȻƽ⡣Ϊ˾ĹԣCSGOǾȡͼλãĻinfernoͼò˵ҪĪϾdust2ŵͼڴУ˲ɻȱλáAggroţÿһλͨ˵dust2治ͼrush bp90Ҳľ䡣СǺβǰڹ漸֣ϾҲǵഺǹͬĻ䡣
-game CFλĵѵAWMô_CFλĵѵAWMҵ CFλĵѵAWMôCFλĵѵAWMҵѻǹӵгԶĴңߵľȣҲþѻǹڻĵѵУӵвĵλСǣСϸĽCFλĵѵAWMô֪ľһɡ CFλĵѵAWMô ѻǹӵгԶĴңߵľȣҲþѻǹڻĵѵУӵвĵλ ѻǹ˺ޣͬҲ˰ҽһѴҳľѻǹDRAGUNOV͡AWM ȻDRAGUNOVAWMͬǾѻǹǣǶӵиԲͬص㡣DRAGUNOVľݡ 71 40 83 Я16 ȶ42 17 ٿһAWMľݡ 73 40 84 Я15 ȶ39 15 ǿпDRAGUNOVAWMľ൱AWMʹDRAGUNOVǿܿAWAĹΪ㡣DRAGUNOVıЯԺȶAWMǿ ۺѾѻǹĶԱȣܸȷĿDRAGUNOVAWMԵȱ㡣 DRAGUNOVʹDZԺȶԸߡAWMȫ෴ϸߵĹʹɥʧһֵıЯԺȶԡ е»ʣʲôDZ?ָǴĸأӰ쵽ǵƶٶȣCFĵѵҪ;ģʽƶٶǷdzؼ! һѺõľѻǹĹҪĸܣҪڻĵѵ¶ͷǣҪҪôúþѻǹ ѻǹĿDRAGUNOVAWMٶһģѾѻǹһ⣬ǿƫҪĿ꣬ϰPCϵäѲƶȻѶȺܴǿԲֻĽĵ㣬һλãܴǿã С飺ѻǹĹʽǹҲвͬıֶ֣ԤУֹǿС飬ϰһɱֲʹϴAWM ѾѻǹõͬѧʹDRAGUNOVΪDRAGUNOVȻǾѻǹȴȻҪһʱĻ壬DRAGUNOVٶȽAMWĴһǹһε˲һ㣬ңҲͦϲDRAGUNOV֪Сϲϲ? ǹϵ ǸտʼĵʲôûУСǿʯͷãǹԼûбǹеСҲȼǹģȻķݣСһһʱ䶪ʡڱռطȻһûȫ̶ǹҰɡ ǹϵ Ҵһʱ䣬Ƕ䣬ͻµѡ֪ڻĵǹνȸߣԶоDzǹȽϺãСһǹͲټǹеˣһѲǹĵ ǹϵ СľǹˣǹСôãһֻ͵Ϯʱã߶ȵʱźãҪˢͼʽܣ鲻ҪǹԶǹIJռʲôƣͼСʱã־ʹá ǹϵ СȻڻĵķѷǹdzѽС˵ǹDZǹҪһģϾٿһ㣬ûǹӵôƮԶҲܴߵˣҳǹЯܷ㣬СÿDzǹ֮ĵڶѡǾ? ѻǹϵ ʵСʹþѻǹϾҶǾһĵģʽûԶѻܻһѶȣοѻӵǺܶ࣬㿪2ǹʱûԶĵѾòǹˡûռߴλ鲻Ҫʹþѻ ǹϵ ϷﻹMG3ĻǹӵҲҪԼʰȡģûǹӵ࣬ǾʹشˣΪĵǹеûӵģһǹر·ҲرҲҪѡǹʶĴСҲûǹ˵ңһ666 Ͷ ͶҲҪѡģʱһܾŶȻϷﻹⵯЩ˾ͲҪһҪڱؼʱڻԼˣҪСͶȻըԼͲˡ ĵѵмDzҪһ·һ·ԼҪʲôǹеͼʲôǹеûõǹһҪȻռű㻹ãȵҪʱҪֶͺܵʱˣȻûǹеܼʲôţܱȳֿȭҪõĶࡣ ϾСΪҴġCFλĵѵAWMôϣԸλѶעϷ
-game LOL̸£ްŵԺ;ëתᣡ Сǿ˲ݮЦǸǹӦöθдɣWEȷһȥءһԣһλС˵յʱ˵̲סҲˡ 1020WE϶ӳա ˲ݮȥһգǵʱ˺ܶ࣬˰˹ȥ˵롭Ƕ˵תᵽEDGʱЦûкŵԺ;ëʱݮЦЦܿ϶˵ûУ˵ߵﶼֵܣȴ˵ޡкǡݮDzWE״̬»Ƕʱǣ˵ǡ˵۵Ƕʱ䣬˺ܶսӸ߲㣬ѣְҵѡ֣Լ֧ǵķ˿ʵʱк뿪ǺӦá˵ĺֺһһףWEɡ ݮһæ˵ҲǺģΪʱҲ˶ɼУЩ⡣ ջDZʾ˰ӲҰںޣô˵ְӵĸоûгëIP5õھԲᣡܶɼòġںޣΪȸȻʧȥˣʧȥĹ̶˵ʹࡣǽĺܶණףͰΪԼеĶʼңΪԼҪĶȥƴŬ ݮ˵˵ʵʱҲģ˵ʵʱȴǺˣҲܴЩܲˣûкǡ ʾ֮Ǵ˺ܶ5V5ëȥ۱лdzϵ ʵҲܺеĺްɣĺdzĺޣDZĺޡžΪõһΪۣΪھתᡭľѹȥٻ겻ѣ͵͵ᡭֵҲֻʣһˡĻۺְ֧ɡ ףһ䣬տ֡Сԭš̷ԭδɣֹתء
-game S7кս2Ӣ۾ԷŲ ϷԭֹվõȡΥ߱ؾȻܾS7һƫ¯ADCİ汾UziMysticĴùǺܿģò˵İ汾S5һڽΪεİ汾S5ܾӡӦö֪ɫֱBanӢ۴+СͬBanӢۼ+˿ӢۼDz̫ܱųˣֻʣк֧սӣӢ۵̫ǿԴﵽΪΪǿȡô˿ͼΪʲôǿأǰ100%Banʣһɣ˿Ӣ۲ܷţΪĿǰ¯̬ADCԭ˿ͱȽƽA쫷¯ߡڸɼܾУ֮ڻౣ+˿ȷǿһϴţţƣAOE˺һADC¯İĿǰǿĴڡܾS7ɱǿ˿µģDeft·˾ֿ˿ΪS7СԺû˸ҷſ˿˺ܶҲ֪Ӣڶְҵѡ¯жֲͼDeft·˾ڿ¯µ쫷+ưܾô̬⡣Ѫ˿ֻҪ¯ıκʱ1зɱĿܡDeftˣUziBangMysticһǿ˿أӢڱӦû100%˭ų˭...ͲöˣFakerСҹйµijǿ֡˼ͿܾΪΪFaker¼µǿֻҪӲˣŶԮԼװȻӵв˺Ӣ۴һֱܻܾİ汾ȻսϵбȽֵһΪDZǴкںģ˼£ǰֻҪԶᵣӮˡWE϶ֱѹͺ¾Ŷ¯ADCǰһԽǽкӢ۵ʹҪŷߡºͿ˿ӦûǾԲųӢۡ˾ҲһS5ʱͬ⣬˿ͼͬʱų˭أٽĿǰûκսӸ...Ϸԭδֹתظлλ֧~ĹעdzµĶ
-game ̵ϷDzǴͿ ԴӷСϷѾһˡرܡһʽԶĽϷǰдġϷ衷еơ淨϶ǴijЩأʹijֵʵֻرܳɹʵ淨ijЩϷòʦԶʹ⡣Ϸÿһضһر⣬еͨѼﵽرܳɹ磺Скϲȴûֽô죡һֻӣ϶ôӿȱֽôʹˣֻС.......ٴε־ֽȷĴʽԶ˷ˡеǽһЩԵСϷнգһؾеӵĸоʵҶϷȤĻЩϷƣÿһضľXX棿ζ㿪ϵĺڰСҪץˣֻõǹͬѧܳɹܿڰ֮⣬ϷܻῴͷĹ顣ҲٻͯͬѧֻΪ˱ܿһ»Ϸµʽ²۵ˮʶ磬Ϸһ30Сÿһضжľ¡ΪһнϷûշĿǹֲ벻١Ϸͨɡ˭ô棡ҾˣϷһػһĴϼǿ֢......㣡
-game ߷ĸҲ治Flappy Bird Flappy BirdڻǺ˵ټˡ ýϢFlappy BirdDong NguyenѾΪiOS 11ϷˣԭiOS 11Ѿ֧32λӦˡʵԽƷת64λȻָ£ǾFacebookΪƻϷʽ Ȼƻ豸iOS 11汾ӵСFlappy BirdôȻԼƷƻ豸ѾiOS 11ôǽٴϷ Flappy Bird2013524״ϼApp StoreϤֹ20142·ݣiOSϷѾ5000д˵NguyenÿԿ5롣29գNguyenԡܳΧѹ Ϊ¼ˡFlappy Bird ڴ˺3䣬ȻƷѾ¼ܣһЩiPhoneû᳢Ըַȥ浽ϷȻiOS֧32λϷЩûײ浽Flappy Birdˡ Flappy Birdϼ ҶAppĸְ2014ֹˣ֮ôNguyenFacebookлظĿǰ˵ġ
-game ЩΪ˵ǸԼеIJ˼, ֻụĵ! ɺLYBСµľҷңԶ֪֪ŵǹҲսõǹʱһһһէĺȻͻͻˣȻһ䡰˼ˡһξķսУһӻȻԼǰƽȡԣһӵȫߣһﻹȻ֪ɻΪʲôһǹıƽˣΪ˱ⱻӣȻôһ˼ţֻ˼е㲻ôˣЩҲԵ˼ˣ㷽ʽ˵ʱı㷽ʽһ̣9085֮䣬ҿˣ˼ı㷽ʽǡұˣұߣԲۺҲһǵǸϽǹͷûˣҸ˾ûˣǵ˰ɣ淽ʽ˼һ㶼DZŰģһֻ˼ĿԺܵͣǵһǹ̰ʲô˼أǼһ㱧ŰѾѻŸͷսʱҲԸ̽ͷһǹ֣̰ǰѰȫнװϣһһѰװͲ䣬ǴǵģռҵģôԣֶһҲԷŵģΪǸӳǴڴܶԣȻûɶãϷ̬Ϸ̬˼DzӮDZʾϷȤԲСĿǹѿһԲˣռҩƷһԼҪò䣬õǹҲԶԼŲˣʱΪһ㲹ɱѣŶѶ¹ȥɱֶл˰ɣʵڲԼͻͻҲãĸʱײ˻ֻõһ䡰ûмաѪѵ~~ǹʽ˼ǹҾÿݣǾDZ⿴ģʱһǹͷʱߣDz˼ûжʶģֻҪǹǹӵ˾ͻȥͻͻȫҲܲͻУʱû˲˵һˣ棬QԼ˵
-game LOLѸԭ̫ɫ飿ĸ¶ĸˣ ϷԭֹվõȡΥ߱ؾLOLѸ֮ǰԤƬǶ欣ݡý罻վٴع˹ѸܽԭԭѸ·þˣѸȻĸˡô°汾ĹѸʮأһɣLOLESĹѸȷʵ֮ǰ˵ѸԺdzƳһ̵ģ̻Ѹ¼йءȻڰӰеɱ֣ҸģҲƻԭһȺ˷˹Ѹɱ...һԵIJͬ...·ˣûʲô·...SһЦݣDzѾúܶ˸е˷أ....ͺͷɫҲһ㣬֮¹ѸڼиĶȻҲһ㡣٣ħŮĶ̫ųὫӢǰһˡѪ֣ڱ֮䣬Լ˽оĹǶ֡ܽ°汾DzǹѸأоӦûиţƫ°涨λǰ°汾ܽԤƽ7.20汾ߣҲܣĿǰPBEûоϢ°汾ĹѸôأڹѸԽԽôϷԭδֹתظлλ֧~ĹעdzµĶ
-game LOLһADCը10ֽ ŮӦҲǾ ΪӢ˵ңС֤˵羺ȦԲӼ˵£ЩΪ˸ĸȻԶԲģӢը⧲һҳʮִʮֽǵŮʵǺըӢ֪ADC쫷·ϲҲȦ˲ٷ˿Ϣһ˲ըǵۣϾһЩŮ˿̤ʧıԵڲݵըʽҲըԷʾķʽǵĶDzǸôˡŵ׳ɹͷʮԪĺѡ֮˿һȴӦըֱе㱡ãŮŵŵӦʾ666Ǹ̸ˣȥɡίĴӦ˰ɡǵʮֽҲˣӢȦĺѶص磬ͬǺըŵŵһͬŵĹܳŹҲףһڴըŵŵܸҴֱͬ·ϡȻҭСףըŵŵܹԶҸȥ
-game ˸ԶܴϷ·ֹһn ԭ 2017-09-20 Զ wuliʶһػܵ黳hiҺãҪϷرܡǸûֻСϷĿǰر2ÿصⶼҪرij£粻ҪܵѽҪͬѧϵĺڰҵѽܲҪһѽȵȣǺճij趨ĵڣ˼·ҪԶҳɹʧܶһֻһŶٸӣУȫԱὲǵķϲǽ˯ţͻᱻ̵ץסѵһ٣ʧˣи취ǣΧͬѧм䣬ʵһťǸťУͱɻȥǵȻҲû˯ţǻᱻŭĽ̵ץסѵɹİ취һֱУͷļٷ̫ͺķϹۣDzˣɹȻϷȫģһҲӰ⣬ͼ٣еֻԿͼ˵סǰؾͻ˹ЦղܡһһռϷͼ淨ʹرܳɹҲòȫͼŶԾҪԻҲǸͷdzЦصǣ浽һؾȻܸܵ黳гٴεdzʱԴһֵ˵ллˣúܿġǸһ棬Ǿ˼ᷢÿ˼άʽDzͬġһץҾֱȥĿɹأҼСһýԱߵijӴܣԼɽۻȻջֻӡиȵǣ㲻ǣҲԼԵġһѧȥУDzʱðóԵѽŮͬѧѽϷѽԴԱߵһ֣ʦͻùӺݺһѧͷصķأȻ·һֻСèʱʦȻʦ֣һЦʦôʦȻǸèūҲ̫ɰ˰ɣһأҪˮȥֱ̱ˮᱻˮĸݣԾҪȥֺô㣬һDZˮϺˮڶֳɹķDzϵˮĸǣ࣬һ㣬һ̵ˮĸǾͿֱȥȥˡȻ㼸عؿֻôһ£һúÿɰѽر12غеãȥͬ˾ġ˦رܡǸûʲô˼ûкԻ̫࣬ʵgetȵ㡣ϴƼSteppy Pantsܺ棬ĸͼѾ40kmռһѷװȺƺȥˡƼϷѽMuaʶԶ
-game ҫͭΪɶϲߣСѧע ====ԭֹתأΥ߱ؾ====ҫϷλһֱŷdz̵塣˵ʵڴ£ͨ鿴ҵϷλǿԿҵϷˮƽġȻҲųһЩҿΥϷƻϷʵλҪƥ̼ܶ࣬ǿ߶λҲȷʵǾҵҫϷ棬ǿλϾϵģȻҲ˵ϾϵġʵȱһɡôǾоһ£ǵΪʲôϲǿأʵɣǾӦˡ1.ϷھʧȥDzѪȷʵջѪʱĻҪһ£ϾѪǷɱȴʵ֡˵ѪӢ۵ʱһҪܵһ㡣2.ƢƢõңϷǾԼƾһƽ̨磬˵ʵһϷÿľͺãûҪ̫֡Ͼڵ˶ԣҾͣҾһô졣˵ʵۼֻĸ˼֣ȷʵ㡣3.Զ֪øʲôЩ̿͵ʱ֪òдƤ̹˵ʱȻں棬ִȥ˵ʵԶ֪ԼڸʲôңддϷ֣ȻҪ˵ǿˣϻƽ⡣4.úͶҫһ˵Ϸʮ弶һпܣһһǾԲܵġ˵ҪͶһģȻcarryDzܵġ5.ѡӢӢݵĺλҲǺҪģ巨ģʽֻʺżƥ䣬ʺλ˵ѡӢ۵ʱÿһǷ֪⼸ԭǶ˼أ
-game ȭʽɫƴ ɫ汾² 1994굮ȭʡȺƳˡȭ94ȭ95ȭ97ȭ98ȶಿϵϷƷϷа֡S֪֪ҴĿ֣ôһɫأûһϷǰСȭʡɫأȭ9736ɫȭ971997꣬ȭϵǰ汾ڸнϴĽȭϵеij֮йdzܻӭʱգȻŴġȭ97ҡڡȭ97Уһ36ɫ/١άD桤͡ʡա¬̩Sۡǡ˹ȡK'ȴûеdzȭ9851ɫΪһûеڡսȤϷȭ98ⳡΪս֮սƷǰɫۼһã50λɫѡáȻȭ98ɫڶ࣬ȻȱΡġӰߡK'˹ꡢWhiȫ졢˹ڶɫȭ1454ɫȭ14SNK2016귢еġȭʡϵеʮIJͳϷйʮ֧飬ÿ֧鶼Աټ2ؽɫȭ14һ50ɫȭmugen114ɫȭmugenȭϵеķʽ棬ԼģĿǰϴڶ汾ȭmugen3.0汾У114ɫȭ硷ʷȫݵƶϷʱSNK2017ƳKOFϵȫƷȭ硷Ρһ3DMMORPGΣϷKOFϵнRPGй½Ϊȭҵ飬ȭ硷и뵽Ϸߡ֧߾УϷƽҽǽͬʱϷһȡżָͣҾѻãϷҲԺڶҲսԱΪڶǶصļܴСȭ硷ονʷȫݵȭϷϲ֡SǧڶȭʾɫһҪȥŶ
-game EDG̸SKTرӮ šӢˡS7ķ֮һĻLPL֧WERNG˫˫8ǿĶٶȻܾЯͦϺѾǼS4LPLٴλعǿҲڼſھS7ȫܾ˻һ°ɡWERNGĽڱʤϲ֮࣬Ҳ人Сͱ̭EDGսӡΪ˴LPLһӣȴڻδǿؼңϧ֮Ҳ˺ܶ˼գEDGսӵԭʦξֱоEDGսS7ϵı˷ƣEDGһܣڶȻѹC9AHQմƱEDGٴη̣ȷʵԼˡͬʱҲʾSKTÿEDGʱѡȵݡ·+ADC+·̹ˣĶ鶼ѡûӢֻۣܴܣ·ݣоǺرӮǡڰеĶرӮһЩ飬Ǻһ£SKTرӮEDGġSKTǰEDGʱǵĸWOLFƵйEDGоûнEDGֻDzSKTDzEDGEDGջԽɼ˱ӾʼԽӢ۵ģEDGֹʮǿ;̸ǾؼңʲôԭϲǺעǵԽܡϣEDGԺúܽᣬݺʹŬ!
-game WiiUģﴫ˵Ұ֮Ϣ WiiUģCemu°棬θ֮汾Ŵﵽ1.10.0ϷԸһ֧֡ǴҶڡﴫ˵Ұ֮ϢģЧҲõڸԤƵչʾˡǴҶģЧ֮ǰ1.9.1Уģһθ1.10.0ЧFCϷϼ2Ҳһģ⣬ԭа汾û°ģ⡣1.10.0ڡﴫ˵Ұ֮ϢģЧ֮ǰĵģCemu1.10.0ѶԾǰأûǮûĵȴһʱ䡣
-game ʲôϷСǮ;?̵Ǯĵ羺Ŀ! ӭע羺ҵϷɫ,ע!羺ҵչݱ,ҵģٶҲ쳣Ѹ͡ 2017 ϰ,йӾϷгʵʹﵽ 359.9 Ԫ, 2016 ȫΪ 504 ڡ羺ĸٷչҲʹõ羺Źģְҵķչ,Ͷǧĵ羺ԽԽ,ְҵѡֵҲԽԽߡϷ,ѾDzҵĴ,Ѿв˿Ϸ¸ǾЩϷְҵ͡NO.5 ־ӢCSȻ CS 2011 ˳˵ʱģĹʵ羺¡Ӿ(WCG),֮ CF ȡ,֮Ĺ CS ҲûʲôˡѾûôϷ,ЩṩܽȻŵλ, 1ǧԪ,֪ CS ڵʱĵ羺Ŀж𱬡ǿ CS ѡ֡f0rest(Patrik Lindberg)Ҳȡ˶ 19 ½,۷ʱ 2009 ѾһС֡ϧ CS ûáf0restCS ǿߵҲԶͣ˹ȥ,Ѿת桶CS:GOˡNO.4 Ǽ2Ǽԡ˵ RTS(ʱսϷ)еij ˡǼԡ롶ħ3:геļҾ,ȻûзƳġǼ 2dzư RTSǼ2¶µ 4367 ֮,ĿǰϷ,ܽҲﵽ 2300 𡣺MC(Jang Min-chul)ȡе 50 ,ΪǼ2ѡһλΪͳ˾ܺȱѵ,ȡ÷dzijɼ,ò˻ԼôŬΪʲôNO.3 CS:GOȻ CS û, V 粢ûз CS Ƶ˼,2012 귢۵ġCS:GOѾص CS λ,Ϊһ FPS 羺Ϸܳ黳,Ҳǹе FPS ûеֿ,ĿǰCS:GOѡ 7788 ,ȻϱġӢˡһ,ϵ羺ѡĵ羺ĿƬ;úİCS:GOѡ֡FalleN(Gabriel Toledo)ȷʵǺʵǸ 90 ,ѾͨCS:GOó 57 ԪĽ,һİ,Ҷ˼˵ԼҲǸϷ 90 ˡNO.2 ӢΪĿǰϷ֮һ,ӢˡҲȻǰбƸݹͳվ Superdata ,Ӣ 2017 굽ĿǰΪֹߵĵϷܺٿΧǰ漸ϷĹ,һΧۡLOL µij档Ŀǰ LOL ͳĽѾ 4100 𡣶Ǯ LOL ѡ־ǶϤġħFaker(Lee, Sang Hyeok)ˡֻμӹ 36 µȴѾ˳ 1 Ԫı롣ֻ 21 ,λ廹 5 ,ʵ˸̾׳Ŭ,ŬҲƨNO.1 DOTA2ĿϷƴ,ϷְҵѡҲƴֵĻ, DOTA2 վ,Ϸƨҷšȥġ DOTA2 (The International 2016,TI6),ؾʹﵽ 20770640 ,ҲΪֹߵĵ羺¡ TI5 TI4 ֱǽڶ͵ߵĵ羺,TI4 Ľȵĸߵġ2016 LOL ȫܾ(LoL 2016 World Championship)߳һ˷,ѡȻҲǸĿǰ羺ѡлñǰһλ羺ѡ,DOTA2 ѡ־Ͷ 71 λ!ýһѡ֡UNiVeRsE(Saahil Arora)Ĺý 2826896.47 Ԫ,ֻе 28 Faker ӽ 3 !㻹ûгΪһְҵ羺ѡ,ûԼһΪ羺ѡ,,ûһ뻻Ϸչչij嶯?ԺϷŮ˵ʱ,Ҳ,,ϷǿǮ!......END羺ҵ̬ȵĵ羺ںɨ,ע
-game ٷ· NBϷҺãNBΪ𱬵ϷܶҶְֺޣΪӢϷ¢ϣµϷҵõ飬Ƿάҹٷ˳˵Ǹÿ첻ǸоӦҪǷˣɣͱ̭ܶʾٲңҲȥˣٷʶҪԣڲϸ·ƣNBϷθµݰѡҴʼŴ¼ϷȦӰȽϴҺܶҲʹùңٷʾƻϷƽΪ̵Ȼûб仯εĸǴʩ쳣û֤»ƣһ쳣ʱƸ˻ķȨޣԽһΥΪǷʵNBϷٷ˳Ͽҵ£ǶûʾǸϰһֱ֣չеϣ㱻ѶԴĿǰزŶԴ˲Ӵ֪أNBϷϷûгԹΪֻɱˣɱˣķħڳżƨɣһȦ棬ǸֵܲҪˣҿˣҾȻˣվbiubiuӴ˼ҵ϶
-game ǿӢ۰:ְ,ôʤʶǰ! 褵ʤʳ,ʤȶ˵ڶ56%ʤ,ֱ߸!Ĺʤʴӵ2˵5!| λʤǰ10սʿ,߸ĵλdzȹˡλı仯,ׯܵǰ10.뿪Banλ| λϳǰ10߱䶯,İ褳ʴӰٷ֮0.5,˵İٷ֮14.7. ǿӢ(ܰ)λʤ:56.7%ƥʤ:54.2%ܶԾʤ:56.0%߸Ȼǿ,dzʴ1%ӵ3%ûˡߴ½һֵ,ֵ߳ʶϲȥ! ̿Ͱ|| ߾ȻDZĴ,ĿǰսӴʤʲϴ!λʤ:52.7%ƥʤ:51.7%ܶԾʤ:52.2% ְ|| ʽȻǵʽΪ,Ŀǰɲޡʤʿǡɼ˼ļ,ʲߡλʤ:53.4%ƥʤ:53.8%ܶԾʤ:53.5% ʦ|| εķʦdz˼,褡⡣зʦʤʶ50,汾ԷʦĶ!λʤ:56.1%ƥʤ:54.5%ܶԾʤ:55.3%| ȵӢ1. ҹĵĹǴӵڶ˴мٺ!2. 褸İȷʵǿ,ûλڸ߶˾ֽʹá3. ʦʤ͵Ϊ(ҫα)ԭ,ش!
-game ҫŮܹٻڰʵ㣡 Ů洸ոճкܶѾˣŮ洱Զ̵Ĺ룬ӵвŮԭƤЧҲŮ洵Ƥ˵еcpӢ۵ijܶҲʼ棬СֻһҲ棿ŮĻ ԿҲһװˮɱˣԤϻdzһСûõͷ˴ǰһֱе䣬50һһдо䡣Ȼûйз˳Ů죡ֻһЦ͡ȥˣ绹ǺܸˣֱпԿҪƤӢˣûӢۼƤʾֻҪע۾лԻƤӢۡڴijװСܽһ˺ǵĸߣŮ洸ոճܼ˺ûŶҲԿǵôֱпŮٻȻԼȥԣֱȻ㶮-.-ںӵ֪ճ߹ԣ˽ճעŶǧݡټ
-game µV3Steamڼ Ƴİ գSpikeChunsoft˾926PCƽ̨ƳµV3ҵɱѧڣDanganronpa V3: Killing Harmonyļİ棬øй鵽Ȥ µV3SpikeѧԺðսϷ˺ڰԼѧϵͳνȫµ̨Ĺ̨ϣ֮ѧƵ˱դIJѧͬʱϵͳĶʹ˸ӽġչصĺɫĬ¡ ǰġơϵһֱзңڽSpikeChunsoft㹫Ϸķİ棬ڽ۶չϣ ʽİķΪ926աİҪʹҼ棬923տԤԼڴ Ƶ棺
-game 汾˷ǸŭΪIJ ¼֮ʵѾõطijͷֱֲƽ̨Լȭͷ˵ְҵĻˣֱҲˡ鷢˴ʱҲеһʱӦӦɶԼɣʵȷʵУNBѾǷݽԼȷʾΪʤеƮƮȻٻμӱѡ־fakerһʵΣȭͷ֪ͨʶµԣڽ磬֣صķһƪǸ£ǶݵǸʵкֵܶ˵ĵطһı̫ڶֻδŮѶԴ˲Ҳʾһ̻Ϊ
-game LOLϵƤһɽկҳεļӸ ǰվˣLOLһϵƤ⣬йϵУϢˣӢ۷ֱǽʥȽϷϣҲܷ⣩Ů㲻ΪʲôŮҲʺϣվվǷdzģȭͷôǵƤվмҪ˵ƤЧĺܲҲȫT3ǵʵҪ˵ϵ ۼ1350rpȼT3ʿУҲDZϵе֮һӽ·ģͿҲйĴڣЧҲйɣһϼӵζǿƵͻ֣ᷢչȻĽͺˡȭͷġϵ ۼ1350rpȼT3ʥһƤĻǺģسǴɫķɽеҲйͳС˵ijƤվõľǽʥһϵ ۼ1350rpȼT3LOL100ӢۿԳϵУȭͷȴƫƫѡȣ˼õҲǽǸij˳˻سǰγȫѽһѹӣЧû˵Ӳð˼ȻϵеƤõ˵۹DzһɣchinaƤվԤ϶һġϲվԹעһ£ôô
-game LOLS7սӲμȫܾȷ ʱ913գȭͷٷڹϸ˽S7սӵĶԱݹÿսֻЯһ油ѡ֡ҲһЩ˿顣սӵĶԱ¡LCKSKTSKTļһֱdzUntaraû֮ϣHuniСȻ֮СǣȻȥȥǾݡ飺ļھ⣬һ油ϵLPLWEWEνBenŵ油λãDzӰʲô֡EDGѡ˿ڸϵµΪ油Ҳкܶ˿ѡʾRNGѡҰźΪ油ѡ֣ܸߵKorolѡԲСLMSǻ֮ǰԱAHQŻ油ϯϣڴټС~HKAΪ½뵽Ķ飬6ѡִҶǺϤŷLCSFNCG2ΪŷһεMSIǾݡMisfitsLCSC9IMTTSM
-game ҫһϼܣŵܺٷְٱ ҫΪһֻϷֻĻĴСΪָ赲ֳġֻʧôǽĻЩһļܡһϵļӵ㣺̫һܣڳŵϵĻΪʲôżʱ֪жˣҲżܣǷŲΪҪһͷγɵķܽͷšڶǴǵĶܣΪһԼܣǰͬûʲôôرһŻʱϳʱĻسӳٺѷãԶһܵĻɼٺܵijĬЧݼܣΪͼкͷʱõʱֱӵֵһܣıǰڻûʲôãʱ̣ԷһܣݼΪԶӢۣһŵʱԶͷһģٻܵзǴСĶܣȻǿӵֵ˺DzǰڻкڣһֱȽСԶһܵķλƼáСûһӴܵľأDzǶʱ;ޱȣҸһ𣬸ϽȥΡijԭתڱԲעߡ
-game ֱ ɱּ ڼ䣬УȻǰЩˣʱ˿Ӱҵ顣˵ĵطңȻԼٷһֱڴңʹá һҷǰһ͵ļңýɫƶٶȱȿ졣·ͼʾĽŲʮָЦ ˿ЦõĻֹ㣬ұʾҵԼȻΪҪҪңСֻܱʾ⾴ҵ̬Ҳû˭ˡ ֮ǰһֱΣֱŴ¼űع⣬ŴױҲ˷ŵĴҼֱǰ׳ղŻʹãҿԺڽ˿Լĺһ֮ͲСǷȰЩҵҺΪ֮ɡ
-game ԵĿƷƵ 1029գѶϷɽЯٿĽԵƷԲĻϣٷʽ˫δĺƷֹ滮ݹ滮ͬʱҲع˼ߵĿɫĺƷɴڷҲҵֳܹĿƷôǿɣ½ԵΡġ¡䡱ϣԵΡ˼ĬԵΡʽΪ½ԵΡΪϵеһΣҲɽӺѶĵһƷԵΡԼȫĿڡ½ԵΡУϷ˾淨ͬʱΧ۵չ¾顣°汾νƽνŵĹؼʱ㣬ʱǽսңͬʱҲž鷢չǨ3Dٰ浱ǿԿǣ½ԵΡǴィģ·dzϸ˵Ϸ϶øΪ¡ڲԵУٿصĽɫ°汾еdz˫Աɡɽɡпŵļʩ⣬ҲǸܸܵģԵ2Сġͻơ롰ڡԵ2СǾΡԵ2ֲ棬ɽӡԵ2ԭŶӴͬIPMMORPGΡϷùʶ4˶εľɫΪγꡣͬʱϷڲ˫趨ҿһ˫ɽл1V14V4սȶֳϵ淨£϶ص趨ŻΪɡСʼûãDZѾпıǰεĻʺ̫ˣεУҿʹṦУṦ״̬µﶯϸڴʮֵλҿɵṦɷСڵ㿪¹װۿѡʵ̫ˣװ֮ĶȻڶֻ밲һӵ۵ӡڼʹ÷棬ɫĶҿлһɵIJͬʹ顣Ƿڶΰ汾ոµġԵ2СεУȫµӾͲС3ָ⽭ġȫɫȽΪ3ΨһٷΣ3ָ⽭һֱǵڴڶεȫƣԹдļֽ磬ȫ3D硣Ϸ˶ϤġšȫɫȺɫ飬ڻԭԭľ䳡ͬʱȫӽΪҳֳϽѩϵͳȫֶ̬յĻȾӪ侳Ϸ顣ͬʱϵͳþͼ״࣬ʿʱԿ̾˲䡣ʱѡˡӡΪȻϤһ壬ɽ¡dzʹṦǶṦЧʮֻԭεṦЧװﶯİڶȻˮṦɳʱҲˮϽˮȻˣϷһлɫɫڶǿԴӲͬɫӽȥ¡ĹŷϲĪƷ¡ķһڡ3ԹŷۺչĴ3Dŷ绻װΡ˵һװϷĺģ¡Ϊṩ˷ḻװ淨ϷԶ͡Ʒװ֮ɡѡȵȡϣȽIJȾʵֹӰЧϡ¡˵һݶ飬ͬеͬҲʾԡ¡żȤÿлһϷжвһijлЧ³дĹŷװҿл˵ܻϷﳯ˼ĺװعһֱӾͽɫʢգɫӦĽɫ֡⣬ʹϵͳҿԼϲĽɫģŮһͿʼһ߹ŷɫĻװϷܹΪǴһӾʢ硣ĿǰϷڵԽΣ¼ƵƵҲֻϷзеĻ棬ϷʽԸոµòԹϲĻǡԵIP߹20꣬ѶϷɽִ조ԵƻһڴȫµδɣáappgamecomעǵŹںţÿ춼кϷϼܣħ֮ӢУսԪ;ΡӢս衷궷ޣٻʦϷۻлӮȡϷܱߣ
-game DNFְ汾ְҵIJְҵв DNFо仰һ汾һ汾Ȼǵĵ٩Ҳ˵ڹ۵ų̶ˣһЩ˵һְҵǷdzֵ¿ȥģǾ˵˵ǰ汾ˢͼֿسԴԹʸߣھpkһΧԶ벻˺cdˢͼָкܺãпбо۹ؼDzһٷְֱҵҪܸߣûǿĻ˺ȽϵͣȺܱȽ٣ˢͼװҪȽϸߣеѼܣҪ淨ûдʱͽǮͶеڼڼҲƵıְҵ֮һһֵĴڣȻ5.25İмǿȲߣֲ˲䱬ҲDzСģȱûпƵ·dzշŴСŮҩ̵CDѭʱ䣬ˢͼٶȱȽϿְҵҼܴͷҲṩߵıռ䣬Ҫһ٣ֲоͳˡŮеŮеڼǸĶȽϴְҵ֮һлܵĸĶҲ˻еıGϵеҲеһĿ
-game TapTapԤԼһ,ҹͬĥˡϷ ˵¶ĥ,һкֽϷ,Ҫʮĥһĺͼ̹֡һζȫϷҪʡһʲôϷ,áɡռغϰá¾䡢ܸԸ⽫Ϸں˸زĵ̹һ顢֡ӵ,ϷĹҲк͡Ρл,Ϸں淨ҪԼҪݵĽɫռĹɫ,ͨƽؿɽɫÿһɫвͬĶλص,TDPS̵ְҵλԼ츳֧,ҪͨʵսȥͰšδսǰ,ߺ츳֧,Ƕʲô¸ĸɫ,ʱͷŴе,ڲԵ˼롣Ϸϵͳ൱ḻ,ں˵淨˵ơСϷռ,Ϸĺص㡣Ϸдᵽ,ŶӶԽʵ̫(Pokemon뱩һˡ),ԡһԽΪĵϷſڴֺ뱩ķ˿,ڽİ,Ϸ,ϷĿܸܵN̬ˡ֮ͬĹֺܶ,ռԪȻҲһ㡣غϰ,ǺսģʽڴͳغơҷdzĻ,ʱϵŻĽ,ս˫ͬʱ,ЧЧ,սҲҪͷŴ,ս൱ڰһ״̬,ͬʱغҡսɫ,սԵüȸ졣¾,˵Ϸ,ԴЩľʱϷӡǡ,̥ڡPatapon,ҴеļӰ,˵һӡĺøжȱȽϸߡܲҶšPataponӸе,Ϸݺ,ʵҲں淨ȫͬPSPʱΡPatapon,ڱϲķ˿òͬķʽڶഫšʵ,ϷĻFlashʱϷĴͳ,Ȥ,֪С,˵ϷԼʶСĴ½,۵趨ȴеdz˼,ϷʱáҪ趨ܶϷиõĴ롱,ǡм䷢ϷȤ¡,ôϷİǼӷʵϸڵ,Ҳ˹ġǡҪ,սıʵģ͵ײ,ֵͨĵﵽ,һԲϾͿЧ,,ǰġijˡӻһɫĿߺҵȥ8, TapTap ϼԤԼ汾,ܿ༭õϷ,ҲΪһûϷԡ˴ԼһСʱ,˵ʱָġʾ顱,ֹ˴ԼһСʱ,ҳΪϷսǰʮ(û,Ϊ)ҷµ,Һܿõ˹ٷĻظ˺ҵ,ˡÿһθµIJ롣,һ,εİ汾,ҲڶеһԱ,֤ˡӻһһδβ,һδռ,һδϸ߸۰̨ Google Play App Store ,ջ˲ı,TapTapҲͻ67000(ֹɸʱ)ײϷһ,ҲһЩ鲻õĵط,һҳڽŶ,Ҳܿ촦ñ¶⡣ϷĿŶ,Ҳ TapTap ϵеһԱзŶNTFusion2010,ҲDZȽһĶϷŶ,Ͷз,Ҳͬƽ̨Ʒ, TapTap ԤԼͲ,Ϊһҵġ2·,5·ɶ20%,кսİ汾,ٵһ,̱һʻĽ,ʼѹûһôªdemo,³дʾȺͼǰ̳,̫ж˰쵰!(s㧥)sһ·,ҵĸҶ,мкܶ˵Ļ,ͽлڡ︶,ǵ֧ԽԽ,һڽ,ƴȫ,Ϸ!һԿߵĸл,ʵϷҵһСʱ, TapTap ԤԼԵϷÿ춼кܶ,Ψһûб仯ҶϷпϵĽ,͵İϿıߡij˵,ϷһƷ,Ҿ,ܹͨһֱ˫ͨ,һϵȷ֮,ܼз쳵ĸäĿ,ҲһϷĥĹ̲Ǽһ仰,ϷڴĥĹҲȡҵİݺ֧֡Եѭ,ҲƱػΪϷҵġ֮, TapTap һ,ҲҸ˶Ϸ,ҲһЩСǡ TapTap ΪTap༭,һͬɳǵ,Ϊ,û˭Ǹ߸ԽеĴ,ϷļʹĥϷһҪʱƷϷϢ:Ʒ:̽黥::ۼ:ƽ̨: / iOSչĶĶԭġϷ~
-game ҫϿȸTop10 ˭ҫеĽɫ һһȵϿȸֹ,İȥ˽ϴı仯,һЩͳҵĴзǰʮ,ҽҩҵвٴмǰʮ,żҲ200ˮ,һ˭ϿǮĽɫɡTOP10:Ѿ Ƹܶ:202ˮ,ȫߴ½ȫŮߵӰӸǡTOP9:̫ Ƹܶ:215ˮ漰ҽҩͲ,¯Ӳҩ̫Ҽż¢ߴ½ҽҩͲҵΨһܹҽҩijҽȵҲDZѹTOP8:Ϸ Ƹܶ:246ˮһִѧԺ,Ÿߴ½ѧǰѵĸҵҵ⼸,ɹǰ10ݴеɫ,ѧԺѧſڿܳӰ,ܳϷиϡTOP7: Ƹܶ 301ˮ,˵ϵ5ˮͶ,ʱƸֵ60Ǻܶߴ½ʾšǶ˽ڶŮ,:Сǡݼȡо,Ą̊́Ӳ,û¡TOP6:֪ Ƹܶ 311ˮ䷢չ֮·ƴ,һʼΪסഺ,һЩСͶƬ,û뵽ܵߴ½ڶլз˿ķϲ,¢½ĵӰҵѾԳݽɫ,Ͼ۲һˡȻųߵһլŮȻ˫աѾìܡTOP5: Ƹܶ 460ˮߴ½ĴBOSS,ɵʽܴijǹܴά,ҹ¡ʼƯ,Ҳǰ10ܶשҷƯʽ֤TOP4: Ƹܶ:479ˮߴ½ƿ,ΪӡƸҪΪƤ,˵һ1.5ˮҡȫ½һTOP3: Ƹܶ:520ˮߴ½Ů,ʲȫŮӵСǹܴӳʽʵӵߡTOP2:ɪ Ƹܶ:533ˮũҩ,ˡTOP1 ҧ Ƹܶ:800ˮ+ߴ½Ľڴ,û֪жС˵ȡˮ λϿǮļһgzh ·־˵,ںƤޡ
-game ЩϷɵӰıģģ һӰijɹIPֵõٴηŴķʽк֣ܶиıϷһֺܺõ֡ǵġս2DzҲϷأʵӺʱдϷıãСͨĻ䣬ܽһЩɵӰıϷûǸϽȥ°ɡξ1944꣬ӳһοĵӰӳijӰɹ͵Ӱ˾RepublicɣʮеϵƬּƬ Ϊ壬ڹڵǰγdzûлԤڵķ죬ܶ˲ӰƬڹڵģ˵ӳݴһսӢ۱˵ط٣ǽƣְͻûгֵȵȡⲿӰļֵ¾ӳĴɡƬ1948й½ӳʱڵΪд̽ξϷıԵӰӳӳսѻӺ˱˻Ƿʾʲô¼Ҫ Ƕӳӥ۳ӪȻˡⲿϷFCкƳģԻкã̽ϳͨû1СʱͨصģѶȽϴرǶԳٹؿԹڲBOSS൱ʹҪǵľУʹþͳɹһ롣ԣϷFCϷвɶõļBatman ֵܵӰ˾ƷĿƻƬɵķٵݣķķס˹ϱ磬˶١ܿˡƶɭ𡤱ݡƬһԳơͶƵĹ¡1989623ӳFCϵͳܼӣûжҪأϷԭ㡰Ծ롰ʱȤȻ㻪ԡϷƽ⡢桢ֵȶɶȺܸߣûԵȱ㣬ijЩ쳯˵ѶȸһЩⲿƷϷеĽFC䶯ϷҲҿdzɫƷFCҪҲJokerҲֻһӰԹܱؿ֮(Cutscene)üؿﵽԵӰ̨Ϊοԭ͵ij̶ȣȻϷԭȫϵɫ軭GothamнֵƮȣʹƷȫΧغû۱ħսߡսߡƻõӰϵУӰ־Ӱܿѡ20ֵղصһӰʱƬƱλӵһⲿӰȻһ30ǰϵĿƻƬڵЧѾ൱Ƶ2017νһšⲿӰĹھλ˵ֳǿҵʽӢͳɫĵӰƽԺЧǷֲġħսߡFCϷͬӰΪĸıģϷ淨˼ƣ㲢û˼ô¾ˣһѪ·ϻѪԽӣϷеҲǻж··ѡģҪʺϵľٿǹɱϢϷӵģԿԾĻӻˡ
-game һӺڵٵسIJʼǣЩƬ һӢңһ֪һмֲ֧ϵңڵٵءһʼǣϷгһ飬ôϲ㣬㽫ʼǣͲˡʵڵٵسIJʼDZЩƬÿڵٵذ˿ǴųֵʱڵͻųһƯСӵƬɣҪĻħղܡҲΪˣڵٵصķ˿ȫз˿Ůۺ١ÿڵٵعСڵŴʱڵֱ䶼֡ʱ绹ƯһֱƤѸǵϷڵ꣬ʾָijɽк˿ٵأ˿ͽк˿ĺڵٵѾĵãճڵԼֱĺڵƢѾ˺ܶ࣬ЩƬҲڳˡںڵȻϲϵӢۣ20600Qͷ2ѪĴӶƴϵҴ䣬ٻʦdzS8ϾҪ٣֪ڵٵֻǴʲôϲ
-game ҫӢƵжʧܣʤʳʾ֪ˣ ũҩԼߡӢ۸ճڵٴѹҲҪʷУԭӢIJף СŹ۲һ¸ֶεʤʣѵóһۣǾԭĻƾٴ¡ijBUGʵܵԡ ԭʧڣȱܱߺIPװﵥʷһǹŷɻƲܲ٣ֻҪĹ־д棬Ҳܸߡ رǹʵʷҴ黳ڡ ûʵԦԭֹϢôࡢ£ʲôãһ˫èȣŮңԶңͬʱϸߣݴʵͣԶŮңȫì壡 ϴʵԭÿʳʺ λСǾòǵ÷ԼĻϾöɲܶŶ Ҫ˽ҫѶǵùעȤŶ´ټ
-fashion 2017ﶬеĴë£ 3ִ䷽ ã㵽ϣʱѶעдﶬȻoversizeë£Сصȥһ2017ﶬʱװ㣬ִƷƶëϵУͷڰOͣҲԽԽߣoversizeëȻǽʱȦĺôźÿأ¶½ůĴë±Ϊͷǰͱزٵİϸ֣ᷢëô䣬ʼձķؼɫԸܺܺõʼ͡䡱Ϊһ塣1ë+ϥѥСΪִÿ½ģŲһ˫ϥѥסȲůȳŷʱдǵϲһֻ⡣һֱʱǰɫɫٴֵ͵һ˫ѥвθС֮ɫ̫ң+ǾĴϡ2ë+װŵŮϲë£ëµ°ںдУȿҲѡнϺõIJʣ߽һܸܳһţֻдܸ֮ܡȿëʱܽë°ܸõߣѡͬɫϵ䣬˸ӾܣϵĺɫְΪʱֶϸڴ֡ë´ţпҲDzѡɵĴë¸ůŵĸоԲţп㣬һһǶõĽϡϲѥС飬ţпʱѡŷֿ㣬Աŷȵ״ССͺϲ͵ۡ3ë+ȹӴë»ԴȹӣԽɵëԽҪŮȹӣdzɫëҲӦôdzɫƵɴȹšɫë´ȹİȹĽ㣬+ͻȴӣ֡ʳģžoversizeë´ȹӣ:Ĵʱװĸ硣ȻĻԴȹȹﴩһ˫࣬ͬʱ硣
-fashion պŮʫʫ֣㾧ײײͣվ˭ εʱװе㾫ʣŮŮ˧˧ۻĿϾӣȫһĸֵʢ硣ȰŮȰлŮҲֲֻϾֵ·ץҲholdסŮɡʱװֻܲŮСӢʱװȷв˧ŮȴƫƫҪ硰ӢĸλС㡣ǵġӢСǵе̳ΪTODSƷƴʹʫʫTODS 2017ﶬɫпˣɫָЬTODS 2018 ĴֳˬĶ̷Ƥ¿˵Ӣˣlookʫʫѡ˳ɫ£ڴɫTͽϵ TOD'S СЬãȵ Wave ԶʧšԵϹ¡Ҳһ͵˾ſ¶ͬshopping¡ħ費㣬ʫʫμTOD'SϯDiego Della ValleϯAndrea Della Valleֵ˽硣ʫʫTOD'S 2018˫ɫƴƤ¶ȹTOD'S 2017ﶬDouble TɫTOD'S 2017ﶬ߸ѥټDouble TɫƤԼʷеסʫʫְͷһ侭ʫʫķ˿зĶԻʫʫͷԽԽ̣ѾLOBBOBĶ̷ʫʫҲ磬һּɫ˿ȹڹȻŮǰELLEʱȻ˵㣬LOBͷгԳɾˬֶŮԵڡ硷ķһͷƤ̷ϯʫʫRed Valentinoȹȥֱӡ10ꡣµʱװܣǵʫʫСٴͷֱӱӢһ㳡պŮǣǶǶ̷Ҫ˵TOD'S㳡һȤ¶ǣ˴ʹʫʫձijͺ֣㾧Ҳϯ㡣ʫʫײƴɫëǡʫʫƷƴƬҲͬͬɫиζΪġijҲձŮĴƮƮDZȻġҲBOBʱڣΪĴڣ廹˵Ůżڵ̷ˬȥŮɬ¶˳ŮԵıbattleλҲdzߵС֣㾧ɵǵֺͳײϿƤȹʮŮ̷㾧״ߣƷƬҲ˧ʮĺɫƤɫƤ㣬ϳ̷Ӳ˧Ȼĵ㾧СȻܿᣬdzڴк֣㾧ȫȵӡʶǸ㾧𣿿ɰ㣬Ӳ˰ȥǰһͷijһëҲײˡ װʽװɢŨŨŮζ̷㾧׳ڿְҵװɫëëñȴƤַȫŴIJͬ֡ͬһ㳡ʵպŮDzͬʱײȫ̷ĻҲDzࡣҿϧ
-fashion ȿ,һڽ! Ϸ֡Ůѧ´䡿עȿг̶DzҶǿ,Ϻ,ܺܺõ,൱ܵڵϲ,ֵøƷƵڶִ˲˵Ƴ¿Ҳͱǽһȿ㡪ȿ,Ȼ,е㲻ͬ,ƮݵѩIJ,ǸӲͦ,оװеĿ䲼,ʮֵȴ,˧һڽСȻȿէ֮ºѵĹװ㡪䡢̻ɫĿʽ,ĿϿƤ,ʵ״ʡ䲢,ϰT,ͺ¸С߸Ь,˶Ьֿɰ,ѧԺ硣ͰTĴȻÿ,^,˹㶫ϵı,Ӧöʵ˰,ͱǽȿļմɡȿ+ԷĴһ,ȫ,Ǵ¹,ԳŮɰСҪ̫,ѡˬİ׳еƳ,üķʽͻƴĿ̰幫ʽ,ܳΪȺе㡣ȿ+֯ǰȽˬķ,֯һЩŮ,Ϊ֯Ů,߸Ь,ĴŮζֲ塣ĺõı,Դ֯,,ϰ,°,Ҳ֡һСӵı,ԴԿһЩĿʽ(oversizedŶ~),һ½,Ҳȿ+װһʱֶȱ,Ŀ,װ,ʺְ,ʮԸѡ̰װʽ,ɫעdzвθ,ɫʴһסѧԺе,ѧЬӻɵЬ,ϰ߸ͺԸˡ- Կ -Щ,㶼֪Լôÿ~ᴩ | շĴ,ԭҲô!ᴩ | ʱ־ĴСĻ,ԭôchic!ŷֿ+ѥ,2017ﶬ!ȹװһͿѵƷ...άע
-fashion ʺÿĴ,Ǹֻ ҽܵĴǺһ鴩ִҲҪԸʺ˵Ǻ,ԽȻԼ,ȽϳʺϹǶڲϲȹӵһʵĿӾͿճ look칫¶ȱȽϵҲѡԱȽǿijͬʱɹһû߿ʱټһھʻع:ҵ߹ʱ!ܶ꾰¶Žʱ!ʲô;ʲôЬ!Ьǧ!ɫ,ɴʱз!Tȫ䷨,ҪĶ!˶糱,ܲ?
-fashion | Zara£5 Һ~ϸ³ZaraԭģZaraˣֵˣ֪ǷǵãǿƼһɫ¡Ȼڱͬѧڴ·Ӧе㲻ˣǶڼյʱǿ˿յûУŵ㣺ɫdzޣDZȽڵĻҷɫͿԣȻ۸Ǹлеȱ㣺ڴĿװ̫ǰҲдɫΪһֲ͵ɫҷɫɫӽһЩڰһǺ״ġһɫϵdzķɫɫȽʱֵĻҲԳԺɫûԺɫ,ɫLook 1ԼȽϲһڣЬҲǺڵģĴԸʺϸáЬӻСЬdzɫЬӣͼңġЧdzͻµĸУLet the coat do the talkingһ˵ĴʺϴijԪصףԱֺ۵ĸʱֵĸоŽȫҴ䣬ҲøòſԵLook 2Ҫõͻ²ͬɫĸϷѺɫ»˷dzڴĺڰƣͼȫڴӲˡǣէһպϣµĺڰԱ̫ǿ˺ķɫholdסһơּһװңһбȽϺõƽ~ ǵöǰдɫҪӷ~ ٿһŽҲƵģûǸɫChanelİæһҪۿLook 3һԣһɫţп㣬Ϊоձ黹ɫţпȽ϶ࡣʵϷ۴+ӣ״ˣǺIJɫţп㣬ƫɫţп㣩ұĺºͺЬͼֱӻɫţп㣬оԼĶÿԡȻҾͰºЬҲȫɰɫϵң̾˳˺ܶɣȫdzɫرаɫʱڷɫ˵ȽкгŶ±DzӵģϼдðѴ³ȽŶ˵˵Գ˵ƫͨһĴ~Look 4ȣ洩ȹӱȽѴµĴϵݵġֵ֪طܴƽЬlolҿԻѥһ洩һ(J.crew)һıëȹ(Club Monaco)ΪȽϱȽϵЧʺͨ~ Look 5һ䣬˺ͷɫıȽϽɫĻëºë°ȹëDZȽɫȹ̿ɫɣͼȹӸӽʵɫԱɿˣû뵽һͦ˳~ͬһɫϵǻЧԱȽŮζЬҲһ˫ļͷЬ(Bally)עʱ뵽עҪȹڵɡȹɡȹƻºֱ͵߸УһЧDzզݣһ˿lowlowģͼУֱͲȹͲ⣨ͼңⲩĽĵȷвٴȹɡȹ䳤ĴǶǰѴڼϴţϣͱȽʵֿ˵봩̵ܶȹӣҲǿԵģֻҪȹӱԱȽϽҲִܴµĸˣ磺˵ǹϥѥȹ̫ҲУôͲοͼóë¸סȹӵһ룬¶ȹڵһߣͿ̶ȽȹӶڴµIJЭ̶ȣͬʱ汸˴ϥѥϸŵpsһ£¶8ѮģӦZaraһ^¿һԱ~µĻǣ4968/221ӡбdz3ɫɣɫɫɫд֮ǰһ£èɫѾɫĶۡҲҴ~֮ǰظұ֤һĵģ˵Ŷͽܼ
-fashion ô£һϹ һһȵĶֽڹȥ˲ʲôľͺã˫ʮһǰvs˫ʮһ㨋ûˣ ջ~Ȼ졪ÿջһõʱһȤĴϷijߣܲʪЬë£Żͷһܸߣʱ֮䣬ֻһëľ룡ֱŮ·ÿ...ϰִҲÿġԭ봩ɵ·һչ̬֮ʵȴġɫں죬ܰبӱң ԼôԼûX𣿨ԸӾˡֱԣ·30첻ԷҲ°ɣŮݴС磬Ǹ顣GDͬůͬѧ㴩ȥϿʦһöҪĨԲԲͬëشŨҵر߹طӮ ø߹õţ˲ŮҲĽС磬ġȡ˸߲ҵظ·ֵϵģǸЦˣ͵ް
-fashion Ըе¶װ,㲻һûа?? ֪ûй,ȥ̳Ħ˺ܶȦʾ,Ȼ¶װ¡¶װ˵ʱֵļԪءҶߡϸơ,ʽͷ,ѡҲĿ¶װ,¶ˬ,¶ʱ,¶,ѡʹϻҪһС˼ġСһѧϰһ°~ ѡ¶װ ¶װΪܺõŮԼ粿,ѡ¶װʱ,һҪǷܹԼļ粿ֳ,˵,ܹԼ,ѡ¶װ,һҪȿԼ,Լ羱̬ĽСŮʺ¶װ,粿ļܹСɵαøͽΡ,СֻŮѡ¶װʱɶ,ܶѧϰ,粿ڿյһСᡢV졢һֵ,dz鶯͡粿ڿ+ϸ,Vĸ߶ȸոպ,ڿյƽ粿,ŮСԸСһСȹѰ,ͷСƤ鶯,ɫchokerһһ㶼 ɵV,ԵûôСֻ,Щÿɰᱡ˿ʵĵ,ʺϳĵˬ,ڵ粿Ļ,ɰֲʧԸССŮѡǰװκҶߵĿ,Ȼ߽ϸߵݵСŮѡ¶װʱ,ѡڽϽɵһ,ϺڿԼ粿,ɵִһ㺢Ŀɰ,ҲԺһȹ,ɵļ粿Եø,һӪϸСһοպ,ýӰЩСŮ˵ġȽϷŮѡ¶װʱҪһЩȿһʾ,һ¶װ䱳,ȻǼ,ԿϾиӸ,¶װԵðԲ һ,ƫĻ,ȷĴʽȾҪ¶̫,ڲҪ̫,һ,ӾϾͲԳʵļѡĴ,ϸߵڲ¶Ĵ,ɵӻڸǽʵı۰,ˬķ,˲١ŮҲѡV¶,֡ V첻ڸǴ۵,չְġʺԼ¶װ,ǿô! Ҷ+ţп ҶѾdz鶯,ϼԼţп,ˬˬ һ+ȿ һ+ȿĴνݷ,һü粿س˳,ȿȲ,,ֻͤͤݡ ¶װ+Сȹ+ͷЬ ¶װϺСȹ,鶯,ϼͷЬ,ֶһ ¶װ+СЬ ¶һԵĿ,һ˫СЬ,˻,ԸС
-fashion 16ڵı˺ķ˹˧һӣ ˺ķĴ۷ʱڲ֪²˶ŮġȻ˺ķѾ۶꣬ǵлԾţֻǻΪ˼ͥ˺ķӢ˻ϣǧŮԼУԶŶͼ42ϸɲƾִԣ۲ǣ6ڡ3˧Ӻ1ŮĽǡǰŹ42յŮСһСӣŮū˺ķֵٽĺ~ôôиɻͼƬ ICʱ2017910գŦԼ˺ķ뿪Ƶꡣȫ˧İ˹....ӣͷҲɲȴ˧ʮ㣡˺ķôԽԽζɱζʮ˧壡ҲףҲ࣬ʵϳʣȻõԵá
-fashion ɵɵëţп㣿MMڴ˫ޣը еְٴĵƷ˵˫ëش£װij˷ݸʡ㵱˶ڳʱеɵİȫĴÿءµëˬЧdz˫ëɴŮζµĹգdzϸÿŵʣŷdzԴѡϺ;ԸСġͦʣľŵĸоžİ˿ȥʱ࣬360ȻƽָãͿ䡣¿ëرʸеһƤݣëIJʣʸʮ㣬dzʣdzԹֱͲݲģdzݣOLϰ߲μĩۻȳϣ¶ȵѡɫͿɵİǡôʽжһЩᣬͿʹгëëԼİƣŵһ棬ůƷʣ㴩ŵͬʱֺоѡϣָϸ壬ӷף෴ӵвߣ³ϥڽͷзԳŮԵƤãܺõβߡ
-fashion һٴСڿ,ܸ㶨ﶬʱִ! ,˵СŮѾë¡ȻƷں,ȴΪ촩ʲôաʵһٴݵСڿ,ܹ䷳աСڿ㿰ļܴıgetƷ촩ɫǦʿ,ﶬֵôֵ,DZů͵ĺɫƤĪˡܳаﶬд,¶ܴ?!ΪƤ㲻ô,ʵֻǴʽ˴!ᵽɫƤ,ܺܶ౦鲻Խ뵽Ƥ˫ɷ塣˾Ͷ䵥ƷȴĻ,ǿʹش!ʵʶָʮƤԶеĸٴô,Ҵ˻ͨĻӳʵöࡣͬΪƤ氮۵Ĵ,Ƥȷʽ˽ҲһֱڴƷһֱߵμ,Ƥ˧¸߶ȡϪСɫƤп+Ƥ,ֱӽɱŷ˽,ɫƤʱ־,ǿְ©ʱȦ16ꡱģKaia GerberͿᰮƤ㴩,Ҫ!ɱΪƤֻdz˵ר ,160ͷĴ°Olivia PalermoͺϲһɫƤͲͬƷ,תͷ硢·硣дܰС˴°ܶ,ɫƤҲΥСŮ,ʵֻҪѡõ,ҲȫԼԦƤ㴩ġҶԱһ²ѷ,ɫƤ㻹кܲЧľ~HoldסɫƤ㴩,ʽѡǹؼ!ӳϿ,ɫƤһԾŷֿ㳤Ϊ,¶һؽ,ͼ,˿ȥҲΪƤʵصԭ,ʹСΪƤƤҲʱȦȻߺ졣ǰڳϯYSL2018Ĵʱ,úɫSmoking״ɫƤ㿪girlģʽԱһ²ѷ,ʵصƤ,ȴʺҵȷճšοûмһ,ﭹƤӾϲ,ûһѡ~ӿϿ,ҪĺɫƤֵֻ֡Ҫõ,Чһ,ҲʵĴܡȱݷdz,ôֱȽϿɵƤȿܻʺ㴩š֮ǰһpo,ԱǸͬӡԸ,λһ氮ƷƤ㡣͵͵,ι,ҿȫǿһСڿ!ճھѡijƤʱ,ŵһ㿴ĶƤֵƤѡõǽڷǸϻPU,͡,ؼdzʹڴ˵Ĵײ,ô¶ôϴֱƤ,ԷĴĵϡİðĵֱȥ,ѹûһ,൱Ͳ˲ƤıǶзɫƤ,˫ӾϿȥ˳Զڴ˶ԶǷdzѺõġůԶںﶬڴһĿꡣƤõ˫A+߿ڲ,˻ϵͨƤõıůá,һõƤ㻹Ǵ+dzġھάӳ,ƤкܳɫźʪЧ,ʱ̱Ƥˬ㿴,90ȵˮ,ҲȻɢȵЧͨƤԱ,Ƿdzԡѹִ⼸߶,ö!Ϊ?Ƥ֮ʵԶ!Զ!!ֹ!!!߿ƼƤ㡱߿Ƽɷ,кܲȼ֬ЧƤ,м˽顢ѵȶȻֲɷȡɵȼ֬ҡ㴩·˶ʱ,ϽĦ,Ӷʹ,ͷȼ֬ɷּȼ֬,ЧᾫŴҶİ,ǻƷвɻȱıʪɷ֡ڷ֯뽺ԭһӵ,ǡ,ǵȲʪۻáƤͱȽϸ,һﶬܻ,촩Ƥ֮,зȲñ֮ǰۻءԽ,ůݡȼ֬ȶŵ,ӲdzʵƤ,Ǵ㻻սƷ⾪ϲһ֮ǰʵ˽źŰһСϷ,ͼ,ЩҪϣҲöİǴŻ,ٶϼ顢,һ~By The Way,㻹зƤʵĿʽѡһ֯֯,иʵĴŸСͬҲзdzɫΡЧȿԵճ,ҲֱĽ˶,˵ǷdzˡȻwuliǵij*ʶά, *ʶ,һٴɫƤ,аﶬʱִ!ƤȴһСľͻƫ?ܿΪ㴥Ƥһ,Ƥ㱾,ԴӦμǡLess is MoreԸСһЩָ,ֻ˵һѡ²˻,ЬҲܾͬɱء߷ˮ̨̫ŵЬ,ԶպԶĺɫƤ㡣˵ô,ͺʹһ,Զǰ,һܺɫƤаﶬʱְɡƤ+=׳Ҳһļܹľ䵥Ʒð׳Եְ̫̰,ʱһɫƤܺܺõĽ!˰׳,߽ͷƳţгҲɫƤܰ䡣зֲ,ӰμѾͶôƤ+=˧еǵΪڴ,ſƤcp,ܻͷʱ͡Ƥ+oversized֯=ĵĹ,ƤԵÿȴ,ѡOversized֯䡣½ľϼܺܺԳƤIJƤ+=ʵͬƤͬ^رľ䵥Ʒ,ɫƤ㿴ȥ˧ˡAll blackԴһ֡ĸ,ѡɫƤ,ȺӱɫƤҲܻײһʱֻƤļӳֿʽ,ȴֲʧְճ,·ֲʧʱַŮ㻹ԺͿ϶һţɫƤCP,˧ϵ»ϵһλicon GigiԱп+ɫƤĴ·ص,ͬѭ½,еġԭ,̿ѡOversizedиõĴЧƤ+=Ƥ볤¸֮,ȥů,˧ҵƤʺɫϵĴcp,ɫײ,ĿǡôƤ+ͷ߸Ь=߹Ƥͷ߸ЬŮ䡣ͷϸ߸ЬƤѡһصľŷֿ,¶ϸСȸͽ,㿴ȥӸˡƤ+Ь=м仹ڶСŮҲ赣Ƥƫ첻üԦһ˫Ь㿴ഺ,ʱֲƤ+ѥ=ȳǿƼǺɫƤ+ѥͬɫϵ,Ӿ˫ӳӲӲάʹ,Ҳ䰮,״״ȵļӸС˽ķ͵,һٴɫƤ,ﶬֵӵ!Ҳ˴ͬɫƤ,յӭpoһ,ʹ㽻ĵáʲôֵﶬƷ,ҲԸߴ,֮ҲѡҡӴ~Ƥٴݡаﶬʱִ*ʶά, Tips:14:00֮ǰ췢,14:00֮췢 Ķԭ,ҲֱӹŶ
-fashion ح˵˵Ϥij ͷڽͷڵ̡̾ǰǵľֲڳͽ֮ҲͨĻƷˣγйģȦӡ ϳ˵GGMMԽԽ࣬ʵ峱ҲһȴģʧŴҶҪԹҲ濴أʵ峱ܹӴԵƷ߱ģֽصҵҰС ʵ峱꣬һר sTOREĿǰѾʮҳ̡ VOL.11 VOL.10 VOL.9 VOL.8 VOL.7 VOL.6 VOL.5 VOL.4 VOL.3 VOL.2 VOL.1 VOL.0 Ļ ϲҲﶼһij꣬ҲɷùģҲǻδֵġ˵ְɣʣҲͻδijһ sTORE ֮УøѸڲͬ UNDERCOVER x sacai ɽֳЯһʮǰ
-fashion ݵĿӲǺÿ У㡱һֽСƿ㡱Ϊ̫СʱУֽСУ㡱УĴִΣеIJƿϮɹ ȡȴɫȿ˼Ҳȿжεŵ㣬ҲǽͷĿʽΪ˷ֹǧƪһɣܶʽڲ£ʱر𡣱糣ɫƣ桢ʽíֱӰƷLOGOʶڲϣò˵ҲhinȨСŻšſСſ˶з磬ЧҲõġ ôѡƿ㣿ϣѡ˶ʣһֻܴ˶磬ѴճУ ǿϣͣͣ˶ܼԦƫź ƿʽϣԽϸԽʽԽֶҶ࣬С ܶƮݵIJƿ㣬е˶磬ԴһҪŮԻԪش䡣 ЬӴǿСʱдõľǸ߸Ь˶磬Ըкʱֶȣɴsporty chic硣 ϰ߸߸ЬԻաͷѥȣЩ䡣 װ˶硪¿ѡЩģкͿװԸУtee֯ȡ¡µȸЩĵƷʱֶģʮ㡣ҪƤЩģԴɳ£ɰë»е¡ɫӦƿȴɫɫʸãҪʸкȣԾɫĻӦͬɫϵʡ µɫͲһ£Ӧɫһ£̶ȱƿУ㡱ôÿʱеħԽԽԽԽԵǶõĹ
-fashion ͷ | ôҪ϶ܻհ! ǵùϣơC?ѳΪĴʡʱ˰,Ǹʱ䳤,Ųһ˫֮,ٴ CLOT C,ڵʱijˡųݽ,CҲڹȥǶλԻʷ,ʹ ϣҲѾٱȳˡյƱָô,Ŀǰӭʲô?ǰʱҳо˸վ,Ϊһ 4 ˱ѧ,ĸ˧һЩͿƪˡҪʽķڵĴվ϶ԷΪҪ,,ֵĸߵ;ͳ˷DZҪء(ʵΪԼֵ̫ҽ)ȻǷƽ̨,ֻܴ˧,¶¶ν,ֻǸ,ûá̫,ӰЧĻ,ֻҪסɡ1-2-3 !,һ,!!!ȻҲֱֻס,һġڱʽķԶ,ڱ·DzҪĵһ졣ҪЩԼֵôһŵȺڱĵʱ,⼸ҪҪסҪȻ,һ㾭ĵطͻȻƮһɳƨ,ʱDzҪסһ?PS:סʱǧҪ,ȻΪŵ˲õζǹʽķ,ⲻϲǸǹֻһǹӰˡֱǹס,Լֵų̶ȥ¶,Ҳָ,ָ¶(ɫ)(ɫ)ְͨ¶ص,ӶԷĺ,ʺϷȦ,ȡҮ/֡õ֪ȥ,ҪDZƸ!ͷʽķ˭˵ȫͷSupremeVisvimGivenchyBalenciagaYEEZYĴŽг,һ̬,һֶԳļ֡ǹ,Ȼ܌ŵġȻ,ɷ,ֽԲķʽչ,̬Ʊ,Ҳ·ĺļּװϵЬĶܿһ˵,ΪΪһƬ,Ҫϼʮ,˵ġӰɱʽķΪֹĿǰһշʽ,ֻҪĴ㹻,û˻ں()ʱѡһ㹻˵logo,˲Żעȫе·ϡ㳤ίһ,ֻҪӰĵĹ,ġ!ϱҳΪij˱ر,øλѧû?ҲӭǺĵķԼ,!ǻ˺!ŵһýԼ,ͷID:swagdogάע
-fashion пԱ˵, 鱦Ǻڰͷ""! Ҫ˵һʱװܡdzǰͬͽʥһ㣬ɶ˻𣬷ܲ·Ůʹ涷ޣһСͣͳˡֳ ʱװܴͻƣɫ¿װˡgetlook ˵ȷʽ~ ׳Ĵ䷨Ҳʱнʱ⡣߷ּϣӰתܳΪľ䡣ǺڰӦǼĵɫ伸㾦鱦Ůִ˲ƣľ䡣 01 һɫȹ 2018ϵС ֳɫļԼǰСЩʱиУɫİ߸ЬڲͬĦIJõıȫSerpentiϵаָߵϡָ䣬㾦֮ʵĸӳ 02 Ůݣ˽ƷζܵϯʽϵҲٳ ڡBAZAARǴҹϣѡһЩɫĨƴӺɫȹPiagetLimelight鱦ϵָװͣתԣׯصijϣ ˽Ȼͬĸ߹ŵʣΪȫĿĽ㡣 03 ɺ Ů˿ȹȻûɫײԼڴƣѾʱиʮ㣬ټFoevermark̺ϵе鱦гŮͨԵáȻԶ 04 ി´ɫȹȹϵİɫͼʵlookһ˿Ƥζx鱦װУһľʻɡ̤֣һ黨ּ侫һ㡣 05 ٳ ٳһɫ˿ɫ˿ޱĦдСƤִƾʵãƤСѥʮۣENZO鱦ΪڰlookСϲķԱ۾Ҳǿᵽûѣ 06 ݵɫ˯ȹϼοպѵ ˯ΣʱиУгͬʱθƵChopard Ice Cube Pureϵнµʱָںϣһɵ顣 ǴġСסೢԺףһ鱦㡰ʧholdסгϡ
-fashion ƭñȷС | յĽŲԽԽñֿԴˣñӣҲΪʱΪ䲻ãƻ͡ѵûñʺУǾDZññΪŮʿñеľ߽ʱȦܵڶྫŮʿĻӭʺ͵ˣʹǿɰԲñҲһñУ 70 ﵽ˶壬Ҫ鹦DzӰ۴ӰƬУ Faye Dunaway ıñͣʱˣʱ˧ˣñз쾡¡ڻعˡ۴ľգŵڿҲʱֵûѣŸ֯䱴ñͶԡFaye DunawayñĴ䷽ʽӵӰʵǧַñΡڣǾһññ 5 ־һһʺ㣡籴ñ£˵һԣﶬִʽ൱ʱֺÿġñµศɣ߽ϣһ̨סƤʵıñĦǸʮ㣬ʮĴ£Ҳȫû⡣ñϵΧɫͳһɫӦӺгñ²ʱֺÿѡëءëߵȲʣůҲǼѡ쵱ñŮʮĴʱͻøƤɰͿϲŷʮֹɵıñ֯һչʾŮľϡ찮ññŮ紩ʱѡŮɫ Slogan װαñҲǽdzеĿʽͷɫµıñʹɫףҲ㿴Ůʮ㡣ȫТʢñηͣ㿴籴ñһԣԴʣϸĵҲᷢвңDZñʵӵñʿ㿴Ҳdzţ㵱ʱĴññţ Look ԼdzϢතıñ Look Ҳʮ㣬ʮְݶˡƽıñһͻҵȻʡ̷뱴ñҲdzʣ仨ףжյůСԴԾװıñԴ˧ԣ˧ٺʲĵȫ Look һƤʱñʸʮ㣬ʮ˧ⶥñܱñԣӲļпˣᾢʮ㡣Ըеװ뱴ñϣ Look ʸиһ¥˧Ĵ䣬ȻٲƤ Look ññʮֺгѸʵǴȹװһñҲʡ 70 ĸŵƷñ Vintage Look ЧˣȵĸŸƵƷ൱ʱ֡ͨɫԱȣԱñʡñɴͬڸŷĽʸеƷ˿ȹ T ţп䣬ԴڷʽĸŮ Look ԼˡڣññDzǺأ
-fashion ֵ¶ȵļ,,! ,Ůѧ~ĺÿ?ŵӾӦô©Ĵ!ţж̿,ͨԲʷҲ˲һζˬĴˡţмֱҪ̫˺ҲΪ,һ϶ţ,ַ·ˡ¶Ȼʹţװһ!ʱпǶ!յԽĿʽڴŮ˵һʶ,ǻԽԵȸdz׳켸ÿŮᴩȹ,ʵͬȹӳȻֱӰӾߺΡ˵,ҪﵽݡԸߵЧ,ȹͳȹѡϥ15ȹܴഺƤ,ԴŶ~¶ű϶ЬdzڵЬ,Ьǡŵijȳ,ű¶ö,ܲȳôȱȽϸ,Ǿѡ̿,İѴչʾ(Ҫ,ŵ!dz!ܰһ!),˵,Ҫ·Ͽ˳ϸ,ͳ۾Ĵ͵ôˬ,һɫ,һɫë֯,´,´ɫ̿¶γɸ,ŴƽװЬҲʱкȳʱ!ůů ÿ侫ѡѴڲŻȯŶ~עС˽˺
-fashion ˼ | ӱȰ͵ľ飬ΪDzЩУ Ƕ֪ͣҲܹŮζû˹۲òÿЧġϾһdzϵķͣҲ⡣ȰΪһάֽͷ࣬ƫַ˵ǾÿĹؼͷƤͣƯҲԵûϴͷһɣʱʦжοʼͻȽˣ°ؾˣϰؾͻԵøֱ͵һëܷݽͷô٣͡ÿ˼СҪ̯ͨˣЧҲͦģźĶԱȾܿɶھҪˡӱҲԾʾ˾Ӷ࣬ͷˣҲܹͺۼӱԾϲˡ˭룬ӱҲйľʱ¸ǣ̫ϡԼȽխͷϢġƫȻģԴƬʹΪͷǻԵʱлΪɶǶɸоͻֱͶȣӶҲɸУͨԾʹСĴ÷˿ҲɸУԵࡣϸͨͳһڷ˿෴ȼÿһƬ˿ĻȺСеķ˿ῪҲͣշͲܹholdסشСҲƽʱԼиĿʱиеڳֱϸŷܺʱ֣תҪײһҪױݵġʱֱʱиУΪھпиķϸڱ仯ŷŷ硢ϵϵȵȣ任ͺ;ȴСܵõΪͷɶȺͲθУͬķþͷֱõͬЧͨŵall backβ̷Ǹʺ͵ġ ô1 ƽоþʱҪƬչ״ֱϾȻ˳һÿƬ2 þӷ˿жοʼƵȦʱȻȡpsеŶ3 ͨھþжοʼ˳һȻῪעȲҪ̫ҪƺþķʵһķǷֺ÷ƬÿӷβʼϾµλáȻ綨͡ʱCOSMOԭδȨֹתתأǻȡȨ˰㰮ġʱCOSMOöŶһʱ俪ʱ鿴ྫݣ
-fashion ȶ˹ǡٷᡭϢҪ ʯԶһ ʯ̼Ԫɵľ壬Ǧо̫ڴͳʯ̵Ĺ£ǮʯĶ֮ļꡣ ijƽֽ̨мһԪʯ ʯȻԴ˾ƣȶ˹ǡٷĹʾͷһʵҴϢܻЩͳʯҵͷγش ÿվţע¼LLAƼ˾һɹǿֻһʵֲȻʯѷɫʯЩʯĴ֮ߣȻ綼ʮֺԼֻռʯܴ1%2%ʯ ͼƬԴBusiness Insider Ҫǣʯļ۸ͬȳɫȻʯ40%ҡʯƷʲ ʵʯĪ⣬ʵϾǽ̼ʵȻȻ缸ǧ귢ı仯̵¶ѡ ÿվţ˽ԱģȻʯڵؿγʱĿɵġʯӡŽ顰ϡС̼ԭӻڡʯӡϣɳΪʯ塣̴ԼֻҪ̶̵1012ܡ ͼƬԴ˹ ù˾гܼŵ±ʾ ǺȻʯijɷһģһǻʵʯֻǰѴȻеȻӦʵ ֮ŵ»ʾڼ۸棬ʯͬȼɫȡи̶ȵȣȻʯҪ˴Լ40% ŦԼʱʯѧоִδ˹̹Ҳ˵˹ʯͿʯΨһԴ,ֻڸ²֡ ĿǰΪ˷ڽʯʯֳ еʯҪüӡ Ӱʯ ʵʯļɱʡ˴Ҿɫɳչơ䣬ʯƷʺͳɱϴﵽ˿ҵˮͼƬԴYouTubeôͳȻʯ̸еǣġǧһ1980-2000ˣԼ۸ɫʯʮӰŵ±ʾǵǧһ˻ѡʯ Ҳϲءʯ迪ƻر̼ŷŸ١ ʯ˾Pure Grown DiamondCEOɯ˹ҲΪ ʯδƣǸԵIJΪǷϿɳչ ɯ˹չʾʯ ĦʿһݱʾĿǰʯгԼռȫʯг1%ȻĿǰгСԤƵ2020꣬ʯгݶܻ15% ʯܡԶ Ȼʯڻͼ۸ʤһںܶ˸ٹ̵ĹֻдȻʯ⡣һŴȶ˹(De Beers)ߵܽ(Tiffany)ʯԺܶ˵ȻǸ߹ݵ ʵϣƵʯ̼ҶߵźǿʶΪ߶鱦ʯҪȻʯΪҲԸΪ˸ѡ Դͳ鱦ͷȶ˹ĹŶҲǿ˵ ʯһȻʮǰڵϾγˡ ϳɲϺȻʯᲢۡ ʯ֮һֱץסǵΪھϺ϶Ŷһļֵ ԹʯģIDCİĪҲΪ ʯʵǽдʯаѼ۸ڵһλⲢǰҪġ ¼ʯϯִйٵϴԼ 1ʱЩ仯275̣ʮŴĵϢ3725ڣΪһҫTAϰ4ȻҲã315ڣ¿ĸ˾ɶ
-fashion սʤֵľȻֵ?ȿҲ! ǰǶԵò,ø,Դӿܶ¶ȵľͷ,ԽԽñֵߵʵġֵ!ûдʲôȳװ˵ĸ,ҲûдСȵĸ߸Ь,Justһdz͵˶ᴩLook,˲ǽա˶µõΪʲô:ƽ·,ƽĴȡһŮǵ,Ҫ߸ЬƬֵܰƬװ˶Ьʱָе,ûһ˫,붼~жٱŮ,ϲгgirlȿ,ĿгġͣȺƵʱ,ȵصǵ·ϵķ羰~ ƽЬȻô,ϸ,ȺСȵıкܴϵŶ!(һ)СʱƬͿԿ,˫ȱֱֱ,ϥǸ߶ȱһСѵϥǶ߳һءɼССȾͱһ˳!СȳɱȴȳȳŶ~ ȻСȺʹȵıӳһѾ,ǿԡ߾ȹ!ôŻͰ~СȾҪСȱϸStep1:貿ͬʱСȿ,ͨ뵽С,ͨ֬ͰĦ,֬͵Чġ֬Сһ㶼ػܴ,Ȳ֬϶,ĵŮȽϳǡ֬͡С,ҲǼȽ϶ࡣСȼγɺͿ貿й,Ϊ貿λ·Ʋȷ,ʹС,γɡĥ𡱵ļ~ ϰԽ貿,ͬʱβ,ȥȻҲԳŶ~1. 貿϶,,״,˫ֿԾƽ,βµʱעⲻ,ظ3Ρ2. ,סͷ,һ֧һ,ʼȵĶ,˶һֱ״̬,ظ5,ԼСȵķ,ӴƵ,ֲϰȺβ3. ֧ͷ,ͬһֱڿлȦȦ,3ٻһࡣһ3顣Step2:ϥǺܶŮСȲôϸ,ϥ̫,ϥǻȲȫ,ԵȺӷסôϥ?˵,ֻҪ˶ܰϥܲӾ,Զϥ,ϥۻ֬ϥΧøʵTips:Ů˵,ϥDZȽϴ,ÿϥǵĸ̫,ϥؽˡػȽϴŮ,ǵŶ~:http://www.lamer.com.cnӯʵ,滺弡,ΪṩЧʪLA MER֮˪ĹͶصԷ,˪һޡ廤,Ϊˮ,ƼˮĶѭ:http://www.whoo.com.cnطѩɢ,͢׳ɷ˰ɢԼɣƤȡʵ熨״,ܹº̼ϷϽʺƤ֬,ʹɫ,˳:http://www.origins.com.cn̺ʡȵ12ֲ;,ȡڴٽѪҺѭ,ٰĦաرʺϱ¶Ȳ,ͼ粿,ʱʹáպӮ,ĽıͲҪǶ˶~ ˶Ļٶɳٶˮ,ȻǻӴ~ ˶ǵֵ춯,Get!ཡϴ軹ܼ?ϴϴ!˺,άʹɱﵻ!עʱаɯѡƵСBazaarVɨ·άעʱаɯBazaarVŹںŹעʱаɯѡѶСʱаɯin
-fashion һη8,⼸ֱʡ ǵϻĹֱʵõĹʲô?ѽ!ӦҪһƪ,ʵݵijҸΪ,ʱҪ72Сʱ,㳤һ8䳤,λеи,ξѡTISSOT-T-CLASSIC ϵT097.407.26.033.00 еб :4,389.00 ȡΪ˹µƷ,ȻõETAоľˡETAΪƷзһ80Сʱо,ӦõϡоΪPowermatic 80о,ûӷ,ͨӳıݲʵ80СʱЧȻݲִһ,ص㻹ֵÿ϶ġ80оͬõĴ,ʵ̫ˡصѡϢŨĸϵ,Զ,dzõĽ,ʸзḻıȦ,Ȼ˵͵ĵ¹Ǯ,Ƿıǿֱʽ,ʺصʿMIDO- MULTIFORTϵM025.407.36.061.10 еб :5,382.00 2016ȫƳȶ˶Ϣ,4λͻijʱֱʱϢ,ͬʱ˶ļװ,ȫغɫţƤ̵ʱɫһ,ɫɺٻصо,ȰоCALIBER 80,ƹƺڴı,ԿȾƴĥı־Զ,Ĵĥ̶Ȳ¡100ķˮȺͰٴöܹӦִճHamilton-ϵH77715553 еб :5,662.00 ,оij˴ҵH10оȵCaliber 80Powermatic 80,Ҹ˾úٵĴĥΪȫ,ﵽ˹ϵtopͨԿ,оĴֿհƵĴĥ,οƵԶӳH,Ȼ̶ֳȵĸѶȲܸ,ʾλij⡣ͱ,ŵָ,ŵ,ֳǿҵĺӵϢ,43ı̳ߴʺֵĸߴ,ṩ200ķˮ,ԾȥӾˡʱZenith-Eliteָӹϵ03.2270.6150/01.C493 еб :38,400.00 100СʱʱElite 6150о,һֱΪгɿĻо֮һʱŶΪ˴һöԵijо,ԭȵEliteоһ,ͬʱоֱ30,СΪ,ֱľȡоʹ195,Ƚ3.92,ȳķнϵĸо,dzɾ,̶Ըɾʾ,Ҿĵ̳ƸİЧ,ϸڴԾáϸŵҶ,ɫĻϻ,˸о̤ʵġԶӵһ,ʱ̤ʵ,еյij֮ġɺPaneraiLUMINOR MARINAϵPAM00564 еб :42,543.00 8ʵҲɺһɫɺרְΪṩʱ,ѾΪʱҵı书ˡȫԲP5000оԴķʽ,ﵽӳȵЧ,ӶΪֱṩ192СʱġЧɺԪö϶ܿ,ıڻšʽ,ҹЧΪ˱֤Եͬʱ,ɺѽ,ĥɰ,̳ߴԵųжȡBlancpain-Villeretϵ6606A-1127-55B еб :59,860.00 ڳŽִ,ʹֻǻſڶʱҲʧVilleretϵװ,ʹñȫз11C5о,öоֻ3.33mm,72СʱĶЧ˵Խֱ,ԽȻή,ľȴʼֵֶоı,ηĻоапȻ,аԵֹǴĥʾĴҷ緶СƵ氲ƽеĶʾ,ɴСĶʾֱ塣пҪһöƷƵĻ,һdzѡٿEberhard-8 JOURS ϵ21027.1 CP еб :30,700.00 ٿ˵8Դ1997״Ƴ,ͳΪƷƵһɫеıǶ,ֱ۸̫,ٿȴܺõؿ˳ɱ,˶е8ɫ,ʽġǵʯ,Կĵ8Ƽа,ȷֱΪ0.31.25˫ɼ,ṩогһڵͶٿŨĸ黳,ȰĻʽʱ,ɫҶԼʽСȦ֤8նָʾŵ910мλ,֮Եǵֱ8 JoursʫVacheron ConstantinTRADITIONNELLEϵ89000/000R-9655 еб :1,324,400.00 þûռ,˽ʫ١VCչʾױȵijӷּ,ӵ14ijµĶʱ2260о4,ÿ䱸һܳԼΪ2.2ķ,Լ13Ȧ;ĸܹͬʱ,ʱȽϻƽ,ת൱ڵеķ֮һ14Ķһ280ȵʾʮֿܵӷֱ,14Ķ·ҲװΡֹĥװԴӷװɼ,ӵĻеڽ,ֹܿиĺۼӷֵ˱Ե,ҪƱʦ11СʱɼʫٶϸڴĥҪ֮,IJиҲΪʲô2012ƳΪ֤߱,ʫȻӵ֤߱Ʒơд,ֱг,Ŀֱеõij?Ըǰɡ б۸ŻΪб䶯,ˡ֪ͨ
-fashion ˫ЬȦڴbaby͵ȰͶͽţ һȹټһ˫߸ЬԸвʧţɫϵܲȰͿǷdzϲ ɫһִЬӣ϶ϯ Ը ķһִЬΪЬСȹ ʮ ΪȦᴩµĵ䷶ СμҲǾһִЬӳϯֻ һִЬҲСμѸӵʱгAngelababyҲǾϯɫĺɫĻкɫɫģbaby˫Ьӵϲ
-fashion ˫ƴ,·Ҳ! ,µĴǻ,dz·ºAȹĵ߸ֽʽ,,ⲻϵƿһʱ,ֲˡƴӿ,һȤڡ̡ݹԹŮ,˽ȴȦɵĹعرϲ봩,봩,Ǿһһˡٳ½Ƴƴӿ,ҲǺܴJacquemus2016ĸоԺԼʲô?Ҵ,,,Dz?O(_)O~ʱװƴӳĻ治,ֲͬײܳϲ?ΪϤMonse2017㳡,½,ƺͳµķdz淨ǰһϯƷƻʱ,үDZȽϱصĿʽ,߿ʽͬ,ɫͬ,¶Ĵdzио,Ųʧ⡣ΨdzȹĿʽ,һdz,һȹװ,¶ͲԳ°ƺݳĺܴԱZoe Saldanaϯƴӵȹװװȹװƴӿ,˫ƴײɫ龫ֵĸԱ¶Selena DomezҲ˫ƴȹ,ɫۻɫ,¿ɰɵƺһӰķƴӰ׳,ԪصԭijʱҲһƴӳ,һǾʿ,һǰɫ,˧Ų,ϳģ,ʱвMargaret ZhangʩƬʱʹһ˫ƴ,ƺͺƽ,θзdzḻƵƴ,ϸͬƴ,ƲŷѡĿǰƲŷѾ,˫ƴǾ?ԭij õĶԭġǵתͷǶĹһ̬ȵʱй
-fashion | ˶Polo,㲻һʱ ҪΪPOLOֻ˵ר,ŮҲܴ˵LOOKPOLOīسɹ,رŮװļ˲ԪسΪȫµĵƷ,ʱ־ϲ㳡ҲǵӰ㻹ϿҲһ01ԲPOLOT02ѧԺ纣Tȹ03poloƶT04POLOĸT05ɴƴ¨06аٴ POLOT07ѧĸPOLO08ſ֯poloȹ09ŷɫ˿֯䨋10ѧԺ緭T11ٴ̿poloѧT12ѧԺPOLO13˯·ƴɫѧT14˿֯ȹ15ײɫƴӶPOLO16ѧԺɴƶ䨋17֯POLO18Polo Լȹ19˯ƴɫȹ20ѧԺͷPOLOƴɫȹԭ ֧֨ | -ʰų˽ | wangbole123Źں | wangbole02
-fashion ģBen Hillʮͷףֵһ Ben Hill1978꣬39ˡڵIJͬBen HillӲȥıƺͰòҪԶᣬֻҪԼеžͿˣ ʵһʼLana Del Reyĸ泪Ծʱйµ˵һеֵͦġȻһ쿴Ben Hill̫ÿˣDaddyˣ֤ʵ䲻DZԭBen Hillͷɢɶɵ͡ ͷһɽInstagramܻӭʮƬ ʿͦġÿοijͷ СXXhuskyҾ뷭ۣлȮ
-fashion 185ǰûͺ˵ֻĩ 185Ǽ֤ȫ¼ķʱʽǼ¼ٱȫܲûŵ (Walter von Kaenel)2017꣬ʿӱٱӭ185ӽ11𣬵㿪ٱĹٷվܿרΪ185ƳרÿһƷƹ£ٱƾʷͳԺաžӱѡķʽʱ䡣¸ĩЩʿѣǵٱݴ˺196021ͳڵʮöϡҪ̫йӱߴ185ʿƱͳ̬ȡƪţһ뺯ܿλߣһμٱ185ջᡣ ȲҪЩϡٱ185Ĺ½ʡϾҪٱţʱصաڹϵʿСǣʱͣ½ŲʿӱٱԴء1832꣬ٱɰ¹˹ءAugusteAgassizʿǡڣٱڴͳġtablissageƶ´ӱ൱ΪӱڼҹٽƷṩó˾ءƱǵļͥʱ19ҶǵƱҵѾչʮֺIJƷԶޣӡȺԶСģҼһԼæӱֱ1960ٱļ̳ŷ˹ءErnest FrancillonΪʵָÿ˶Ʒĺ룬ʼĿڻеʱӭڶιҵķӦڴδԵʱʷٱѡӭսȸǵʱƱҵKΪʼΪ185ʱУٱƱͳʱ̽ȷսʱ١1927520գ33Сʱ30ӵij;У˹μʻʥ·˹֮ŷɻڰ貼Ȼɹ½ʷ״β϶ԷԽ׳١ΪʺϻĹٷʱٱΪ˴ηȫ̼ʱм¼֤һʷĻԻͳɾ͡Щ̽ռDzֱսľҲΪٱԽļʱдõעš185ٱʼռƱͳֲʱֻΪʱÿһʱÿһˣֱսͬС Щ꣬ٱÿһͻƣܿڼ֤ ꡷ܿ2017ӱؿΪעĿӱչý壬ܿÿӱؿٲٱĴԼˡԣֵصӣһ̫ɣϾ˺ûᣬĩ2죬Ҳ֮չʮϡ㻹лĿٱȫ·Ŀϵϵڻом뵥˿ɾٱбʿ̨֤COSCϵУͬʱԶеоںŵԼƷʣٱΪ185رס ڱԲμ ܿ ٱ Ķԭ תдʵϢμӡԿʱתٱ185ʷʱչǰ30ͨıĶߣԽͼܿź̨ʱΪ1118յĻֳȡٱذһݡ1118 - 1119գ̫㡣 / ༭ / ·ͼһµ¿
-fashion #ֱ# ŷĵ ʿˮ ʾʱġͷϣָʾʱһ־˵Ҳ˵ı䣻ֱһõֱһֱɹֱ𣿿⣬DZˮһʱĺͬѧˡϲֱϲƺǴȤôǽĸӰʿźܶѶʿһ֪Ͼ һ ֲҽеġôҽͽ㲻һģ˵˵ҵŷճʹáʿٷĽ һ,ʿƾԽ,Ժշ¼ΪչֵʼԺշȵľ.˽йʿȫϵ,ʱ,ͺ˫ʱ һСգˮ˼DZˮֱĿǰһƷһ1953귢ʱҲˮﵽ100רΪDZˮƵIJֱر̵ķˮʽǡڿǴӵڶʼݱ䣬ݣĴĸıǸΪתȦ˵ʱDZˮԱˮ´⣬һĸı䡣ȵҲڿһ 2005ıCerachromȦȦʿʹüӲƳɣԽĿʴֹɫȦʹ䣬뺬ȵˮˮӴ Ȼ˿𡣴ӴҲῴƵʿˮʿˮȤƼĶCollezionare Rolex SubmarinerΪϸڹŷҲʮӰʿʹõı־һָֻ쿪ƣԢƷȫֹƣݱΪ֪ĻʹڣչʿƱҵĵ֮ڹгϣһֻͨʿֱļλ3300Ԫ15000ԪȡȻ۸ƣǻΪֵⲻʿƷʾΪжصͶʼֵֵǿ˶¡װԣȥɼװĵôΪʲôѡʿ? ҪΪˮٴ90ŻеӰӰ죬ϾһҲһǩͨһҷԼľǶԵġΪֱһ˵dzҪرݡһҷֱû𣬸оڳֲûпܶ࣬ҾóֵҲһԼǵֱҵĽܡô˵ΪΪʲôϲʿ? 衶ɯؐж@һ䌦ףobƣʿDS㣬S]ЄʿDŽe˿㣬ǸҊ㣩ŻеУº·ҲBĽ͡ɽúϣٻͷҸϰ壬DzǺидСۡձŷޣ㣿е˻ʣۡձ̨ңЩҸ˸ءȣʿƼġҲ˻ʣʿֱӦȥʿô ȥʿֱܶ˶ôΪʿֱһҲˣһԭǻ⡣Ҳͬٻ⣬۵Ļȥû̫ˡȻձպֱеʱȷԣֱŵ⣬պֱŷޱôһѡԭ2016ҶһŷԪĻʴ6.8 ˵DZȽϻ㡣һ仰ܽᣬǡȥijһطȥȥƱȥŷޡȫŷ㡣ŷŵ깺ͲŪܴѾдϸƷƹ¡Ʒ۵ȡ˵ԼļܡϾ˭ǮǴģڹʱҸר깺Ǯġ2016222һرӹص ǡܶѶһ⣬ھƷԲͨô졣ڳҲȽϵ⣬ҽʿרҶǵġΪֶйĵ( СرƯ) ȫ̹ͨϰ⣬йܼҼʿΪҽرܰ ⣬⣬ŷңٵҵĵһLOGOĴӣƷƴӲ棬ġƯڴɺĵ ˰˰17%Ҳ˵ҿ17%˰ѣ˵Ҳһʲ֣ԼһҰɡΪһƱ---ʿԱҪд˰˰Ҳ˵˰Ҵȫظ֪ﲻܰ˰Ҫſԡҵһ뷨ǣDzDz˰?? ڵεЭͬ½Ҫֱ˲ſ˰˾һ⣬һӶô? ;˴ô? Σһ˳ɡɹ˰˰飬ҴΪҹݳƷҪ뿪˰ҵг ---ҾҪں˰ィǰд˰ÿһѡʱתʱ価һûʱ˰ˡ д˰ÿһҪдм! ŷ˺Ժпû˺дǮ͵ŷˡʿʹõı־һָֻ쿪ƣԢƷȫֹƣݱΪ֪ĻʹڣչʿƱҵĵ֮ΪԼϲɫټϺɫǰٴûôۡĺĻʹ֤ô дֵıҵĸܴĺˮҵؽѣô ҵĴ𰸿϶Dzڣֱⶫÿ궼Ǽۣڵļ۸ԼжЦʿһħƷƣһĵƷơȻ㲻϶ƷƣڴڹϵһƷƣһҾѡ߿ѡһļżɹʱɹװôңϲô ҵĴϲֲϲˡͷǽһƺı䣬Ͼӽ1000ҵĶٶи飬ͻϲµĿʽԼһİһʱ˻ͷӰը侲£һǾõͨûҲǸѡˣе㳶Զˣ#ֱ#͵ɡ
-fashion ȺƤ̶,ȴʱȦ һλ,Ϊɱ·ģʱг,¡Ȧ5¿ʱа,ȫʱ־Elleް6µķ档DzǾϤ,ܶʱдﶼõĽ,24,ȴڰʱнžصĵλ,ýΪӰŮԡinsӵķ˿,ýһ,ϹǴ쳯ӡŶ,Сǰ,߲160,IJϴ,е㡰һ,ƾʲôڿȵʱȦ÷ˮ?Ůա,ӢMargaret Zhangϼڶ,ԭ,һؾ˰ޡһĿ,ܻܵеС˧ġʵMargaret Zhang֮ǰijɳ,ѧ,ûʲôܸʱйϹȻ16ʱ,һʹ˸ıԼһľٶԼIJ,СSHINE BY THREEڲ,Margaret ZhangСǷ͵Ĵ,²۸ִʱװΡ˶ΪҲͣ,Ȼû,עʱȦ̬,ʹMargaret Zhang֮ģءӰʦʦʮ,䡣Ϳ,˵С֮,ͰԼʱиҵѧУĴҵ,ȻɹõǮȥŦԼʱװ...ҵ,ѧ̵ġûҪǶȥģ,Ҫһѵͷ,֪ԼҪʲô,Ҳ֪ԼҪǧټƵĴﵽĿꡣһ·ҵ Margaret ZhangBusiness Of Fashion ѡΪʱҵ500ǿ,BOF,ŵҵͷԡҲ,Ҳջ˺ܶݳƵMargaret ZhangѾ,ÿñ˵ͼ˿Ƿ,ԼϾǿʼĥӰ,ոһնԹߡ豸Ƕȵ,ӰҲûû˵ʩ2015ϵйƬ,ģMiranda KerrԡϵйƬMargaret Zhangִ,Miranda Kerrͬͷǰʱ,ҲѷɫMargaret ZhangЯPolo RalphLaurenһĹƬSENSOƬҲMargaret ZhangִʱԼļ,Margaret ZhangҲǾϲ,Ȱ,ÿһöҪ¡,ò̾һ,˳òÿ֮,ϵƺMargaret Zhangе츳ܶˡMargaret Zhangּܵը,Dzǻᷢ,ʵԼ̬Ⱥ,˭ں߶,ȻMargaret ZhangҲԼһ״,ʱиԵҲԡĴȵȿMargaret ZhangȻŹ,Ǵɫǻƿ,ɼԦϴĻǹŰij,ʮchicԪرز١ϵϵͽеʮֺӦ,һͨĴɫȹҲΪ·ϵʱָСchocker+ǰV+ŵĿ,ڽ벻˽Ķ!ƶţпһ˱ر档ij°¶IJ,ĿŹȷʵʮlookԵƤ,ʺ߿ɰֽƶţб+ɫ,ٴһ˫Ь,ûë,ּ䡣Margaret Zhangʱв,ı紩,У䵭,ŵżͷ߸,ʱ־㡣+Aȹ,Ů˵ַ֪ըѡɽ,ϸҲúܵλײɫ,»,ȹ,ϵԴԸ,ôMargaret Zhangѧ,·ĺܺ,ޡͬɫϵƷһʵҲǺзġ+Aȹ,вʸ,С㲻!ʵMargaret ZhangѡĿŷ,Ҳսźݻװ,ܽ֡ҲԶԻ,ײͬ,ԼһסŰ˵Ҫ硱,Margaret ZhangѾˡûͣ½Ų,ƴ,ִ˲ƣؿ㳡,ɡڻǰ,ͷԡڷܺǿ,ʵسΪýŮҵִšͺѧ,ΪһģӰʦȷʵһ,Margaret ZhangҲòɷ Դ:йID:chenliegongheEND³girlֲ,ÿ촫ڵıʱеСtips,ӶShare the beauty of womenlady8844com
-fashion ¶ʹ̿ѵСŮ¾ûбľˣ ֮ǰһСδµ£ǶǴ̿£¶ףЩ˵СѾģӾƣ͡ʵ˵ʵڵģ̿¶ںĶ˵һͺսһ춼̿ڰ˵ʵе㲻ϳ...˵£Сӵǿ϶ֻæsay no..ΪǵĸСע볤·ԵʹԴҲǿͷ˵ߵȼ..ȫûǰһԽܵɡƳ棬˵ЩĵСɣӴµĿʽɫԼ似֣һǿķڷ˶̿㻹ýЩԸߵġƽ𡱳˵һСӴµĽɳȡһDzҪպõϥǵĴ£ΪԭͲߵĴмһΪȶ̣ʡξdzңϵسĴעݸ߸ijǾͲҪˣϾڽϱҲǺε...ԶСٵСȶǵijԸߵĻƽȡԭ̿һ̿ǰϰ̣Ȼ°ͳСȶǵĴӾϽСӾȻԸˡǵвijȣҲʺСŮҲ͵ġЧ䡣Ժɫsay noɫĹ˵ԸߣܶŮһǾѡɫʵɫȷݣɫûãΪ̫ˣȥۣҲԡ̡ıˡɫǸܺõѡɫɫỹǻɫϵᷢΡ֮⣬߸ԼԦɫϵҲСǵרԵ˷dzͻӶȥԸߡͬɫϵӪӾͳһΪûɫϵķֲ㣬ԿȥȽԸߣֳĸСѡߣܾݵڴ֪СΪԸӪһ߷dzҪ¶ȵĴѡʱҲһҪ౸ֱͲЧûĿʽãoversizeһҪֹģҪס˧֮ڸ߸ŮӵŮֻݶ֣dzקߡξ£Ӫһߣ֣fashionʮ㡣Ӫһ統³ͿΪԸߵСߣʵ⣬ص൱ʱ֣˴µΣڴѡҲҪСмѡɢڴֳȹrealʺϣȻƸУǶĽС㣬ϻԵøݣһὫСӶеƤһԻǹԹѡϸװɣȲһڴȹӸŶҲҪһ㣬ŵ̬Ӱиõ̬ʲô·ԼԦ˵ģԭͼƬ磬Ȩϵɾллϲƪ֣ӭתȦ
-fashion ŮǵСһС䡱һΪ һʽСôԽݣԽʶŵȦʱ־ϣҪɡôԽ䣬Խ ԽԽһжΪ ֪ҷûȦŮһļĴſȥû̫ı仯رʱҲǴô⡰ʧ١ǡʧ١ģŲʣIJ𣿿ʱֵĶŮݵ˽ָڹعһƬɫ粿οë´ɫƶ㣬ڵƻԻ͵ĽֵˡС¶Ըжʱ֣ϾݵIJǶ֪ġͱ紺Ѿ¶˸СϽֻˣο¶ëĵʱвʱڲ䲻ȵãҪĵضҪⲻס~ͷɫ֯ñɫο£¼ֳһĺºȹrockerɫñӺͻֺСŮζһкͣᡰΪ⡣Ƕǹȣһ˾ɪɪҪ˵οյƿɲֹ£ԶʱȦĸλϡ档µɫοյопΪۣʱ´ȵĵоοԪؼӳ֣ĴһɫҲܳ¶ǶǸ¶Carvenɫб´ɫȹϲͬഺŮ磬С¶ȣ·Ҳͦģġţ䲻䣬Ȱ˵~PܾеELLEдϣҲһϮС¶£ЩĸоˣIJμԼ¾翪ᡣɫб粻ԳƳ£һ¶ʱָǽһСס¶뿨ɫȹĴǸţ֮ǵһlookİ貢Υ͡ʱֵƴɫбëԵп㣬ܴͷз硣һʱװϣСܶBurberryб;ͺܳ¶꣬ʱְðݵСҲ¶£ɫ¶֯˶ȿĴик㣬С¶ֳԸУӻ~ɫñCrop Top´ҪȹĦŮɵûתСԸСعⲻõİһĦǴ翴ȥΪһЦôҶܵáTallia StormǣŮҲDzģ¶°͵ͬʱŴʱůʵԵҲʱַȻҲŮǶģϮʱʵȽϿס˶װϵС;μeasy chicĴ·һд翴žͺů͡Сšͷɫ֯ñɫ˶װůӾҲůĸоӱlookзʮ㣬ϸϻпģɫƴƮ³úܵ͵+ϵСߵ¼ݸϷɻҲIJɫ֯Ѷɫ£ůзgetʵ·ߵĴδɫڴ·糬ʱ֡Դķرǵݽ̻ǣ첻֣ܵˣڻɫĴΪԼһɫ˶йоصlook
-fashion ^,Ҫʲô?!! Ƿˮƽһ֮,,ڹ,ҪӾá,ͬҪвͬװ,ô^ЩҪҪ?# Overrall Dress ȹ #ȹ,25Ů˵,ܸоȵѼԦһЩ˳ĵ,ٴĺɫϵҲǺѡ,ʵֻҪռɾͲԵúѡ70ŮǻᴩĺǦȹʽ,ŵ,չԸŮζǿ͵ȹ,̫Ь,Ե̫,Լ¶˵ļ,µЬѡԲοij˴ϸЬﶬҲܻϥdzѥ,ܴĵȹ# Backpack #ӞѧŻõĺ,ͻȻŵİ֮һ,fķ,ŮҪϰĴѡ@,͵baby blueʵĸ̶ʮ֪Եʸɫ,ʹװҲȻص塣ճİѡͼ,Ǵɫϵ,one piece װʮ͡# Polo Shirt #Poloܸһĸо,ƺԳŻᴩ·,ȷʵŮ˵üԦ,һСľͻٞӡ˾ѧԺ,һοijNPoloƷ,˿ѡ֯,۲ϵĴ,ƮݵĿ㷴һʡֻǾ߸ŵ·,ȹӺЬҲĺʱ,īǻ㾦Ҫ# Ÿ,· #ܿܵԪ,Ǵ㻳ɷĸŸ,ֱӴиţп,ط90װ,,ǽǰĽѧ,ֳʱĴ,ĿϾ# ߹˿,Ҳִܺ #Ů˶ʶǴְֺ״̬,һչֳͷŴߡײɫϵıװ,۵,ӵй,Ь,ֳܳʱִϢ# Maxi Dress Style #ϷʱҲԴϸֻݲݵͼװ,ȻҲѡ繫ijȹ,ҲЩ˻ᵣ̫λô?ʵһ㶼, ķʽDzοĴ˵Ĵ,ѡԼɫTȹƽ۵Ļɫ,Ͻͷʱ·˶̲סͷüΡ# Maxi Dress װ #Ѿijװ,ɱٴϸ߸Ь,ִ䷨Եʽ,ʹͽСҲҪdzŲѡЬ,Чɢ˵ĦʡڰĴ,@ѡ,ϾװҪɢЩʱ,ϴʱֲ# fanny pack ȹװ #fanny packȹװ,һᷢ,?ʿʱвKristina BazanƮݵijװ˴,Ҫļ춿ѡϸ,Ͳ̫кĸоɫҲѡ͵İɫdzŮζ㿧ҪЩ,ȻҲѡֿfanny pack,ǽij¶гȹ,Mʮ͡# fanny pack װ #ʵfanny pack˴Ʒ,Դװͷdzÿ,ԲοChiara FerragniԶ̿Ĵ,Ͻ˫Ըгѥ,ȫɢʮʱȻfţпǿ,ѡϞʸеƤ,ŲԵ̫f,һСľٞ顸Dad Style# Ȱfanny packģ, #Kendall JennerȻ,ȴȰŵĵƷ,ȥﶬﶬ,KendallüMȰLouis VuittonChanelfanny packϽ,ţпf˶,Էdz͡
-fashion | ѧ5ɣʱ µʱѶ,飬ױɣǰ,ȨʱϢʱʦѼȫʱѶȫҶλ߶ʱѶƶý壬רעΪϴĶ顣ʱװܳʱеѶ֣ᷢװʱѾһǰǿװӡͼڣַ߽𣬾ƷʱѾͷϣʹз硣ַ߽ΧһһǿɵʵơʱУʱеʸСأѾΪʱȺרⲨFashion carJerryУ 1. Ь뷫ͷ һַStyleγҪƷϣܳĶԱȡԼʸеķЬʡĴ˶ЬװdzĿװϲʼijͻײӱӾЧ߽ͷзʯͷţƤƴʵϸ̥ţƤʱׯصײĩβġĶԭġϵJerry˽飩 2. ɫСɫĬ ɫװΪףټƻɫ鵥Ʒӷװӡ: ЬñӡΧǿɷӵĵƷѡɫǿҲĬСΪ͵ĵ㣬ΪЩɫĬͯȤƣʱװܽͷͶȤζ 3. Щϵķ羰 ϵϸڲɺӣڳϯһЩ罻ʱ֡ðԼһЩ뺯ƬֻȣⲿҪʱչֳԼϸʸеҪҪ̫ӣһð;ͻֲ⣬ôҪƷζʱ̣ͳʱˡ Ȼͷİ뼫ŷĵ 4. ưԽͷ ڽϻῴһЩʱд˲ϻϵһЩ˿ΧĴҲԴŮСôһװΣдӵʿģкܶʱʿЩԵ͡ 5. ñκ ͷѾҡ˵ζװ˶ãϼİñɡʱиУûжlogo ӡĽΣԼΪýͷķΧǡôʿšEND
-fashion û,׳ʱֵĴƷ! ĩ,ֵ˰׳Ȼ׳TһǻܼĵƷ,Ҫ,Ҫоо2017^ָνһͨͨİ׳ʱַ?СΪһ^׳ĵĴָ,СʹΧ۰~ 2017^׳㳡 ɫij¹ﲻȱٵĵƷ֮һ,ԼٴĿʽԴκһȹװװÿİ׳ӦҲൽɡOLĴģ,׳ֵӵ!1993ɵӰϵ׳+ȹlook,Ȼ˾̾ģҲΪ~׳ô,ȦСǵȻҲһ䴩μѵİȹɫʺϾǴ䴿ɫ,ҪʱеĵȻǴ׳ܴŮζֽ㡹׳,ƵļӳֳȼӸû⡣찮ӰĽ,¿ȳһٷְģ,ûж߸Ҳܴȵĸоϡ˼̷ϵĶװ䳤ɴһҲ,ʱָһ¥ϷСŮ,ڻû,һʱְɡֻҪѡ,ҲܳΪchicŮѡ֮ǰ,ɻҪѧϰһµ ׳βܴʱָ?# ʱֵ,СϸڲܷŹ,ʹˬ,Ӫһ湤СһСʱָһ# ӳǻ,Ȼܰٴ,״̰ġнģ,ҪһЩ,ǵؿڴĿٿ2# ϵ½Ҫڲͬ,Ǿϵ׳½ǰɡ°·ſӽһ,Ӫĺñװ,ͨʱָ,껹ǺôŶ! 俼Ʒζ Get! # ţп׳ţпǾ,÷Ѷ˼ܴõĵƷҪΡñ,ЬôҪIJҪô°ͷҪô½һ,ЩСϸڷַʱַ# ǦȹϲŮζĹȹһҪ,ȥְ֡ûѶȡְճҪһ,:ϰ°ɫ,ԵøһЩ;ճɫһġӡ˿,ȽһЩ# ׳ȿȿԸߡݵ,,һֱϲ´,ķŴս# ׳СǦʿͬǼСſCP,Ůְһľ䡣# ׳²ļ,+,ʼΪɫֿɱů# һ,ҹ²,вθֲ֮ڵһŷֿ¶Ըߵܾ# ׳+ʽµһЩʽͿԵdz,dzҪŶ,ΪڴǺʱе,۴װȹװԦ,ɴ סŶ! ·ЬҲҪ!ոŷЬ,ļںŶ!ﶬѥ,dz˵ı䡣СЬ+ȴʱָС߸Ь,Ůζʮ!,ѧô׳Ĵ,췭¹İ׳!:@TOPWOMENŮװƹϵ:topfashion02,QQ:2213715575
-fashion ͷ|""֣ˬΪʼձʱȦ֮? ȫȦԼԴʵ֣ˬַˡǰμӵӰմӳ,,ͷҲصCenterλվλ,ΪһŮ,wuliСˬڴƬ,Ů,˿,ڷ۰,֣ˬֻ,ȡⳡCλ֮Ѽۡǽͷ֣㰡//֣ˬġʵԼ,Ҳֲ,DZϵͷˡȫ´ӳµ,ۼۼ20,һߴơСˬ,ᵽʱеϢ?ɫȹƳ FENDI 2017ȹװۼԼ1w6,ۼԼ1w4Сˬ VS ģ֣ˬľ,ô,˼ӼҷorΧȹ...ϵЬҲFENDI,ۼ۴7000ࡣռijʱǰصɫЬ...˵,Сˬ컹ۼԼ14wҵ,CHANEL 2017ϵ,ͬ:Сˬ VS ģ""չʾԼCHANEL:,"ͬ"һ Roland Mouret,FENDIŮ֣ˬǽȻͬġߴϼݳƷƵƷ֣ˬͳͳԵ൱ӵ,һǧԪŮƷƵϢ,ʦſڲˡ Louis Vuitton 2017ϵţмп˺Ͱȹ,ϯӾ硶δᡣǷҪ˵Low첻Low,ֻ֣ˬ崿ֵڼ,ijŲ...,ͬʱŮ˱,ʱз,Ͻġ//С,ĸŬʱзҰIJ,Ƿ켫...(֣ˬ)92Ĺ,+˽Ʒζ,ʱԴҲԴԴTee & & Ь|Dolce&Gabbana x LVR|Angel Chen|BalenciagaЬ|Saint Laurentֻ|Louis Vuitton,ڳΪ"й躺"·βȹ&ī|Saint Laurent|ChanelTee|Y/Project|ChanelЬ|Balenciagaī|Gucciӱ,һ·,Ҳ㰾ͷܵDiorʶ......Ψ֣ˬ,ֻ֣ˬ,ʱԴΪ0...20w FENDI+CHANEL ˬΪΰֻҲʱȦ?ԭ: ŷ,ڶҲǰ,ˬԴ,Ҷǧٹֵĸšˬ㿪Сŭڷ,սԻͶЩ200ĻСϷһԲϾ,á㡱Ʒһϵˬˬ,˲ٱϸջҲкڻкźĸ,ȷѪ...ʱȦϲû,ˬĴʽ,̫ȷһ°װٺ̩Ļ,ý߱ƳĸϢ,ְDzǷӾͲˬ?ˬǰô,ĸƷƸ? С̫һûɶֹۡCλͿˡȻ˵桢¡Լ, but 10֣ˬ,Ҳ,ô,Եú...,̫üŪ,ڼС¸ͷ仨С?ҲûɶԭԴ,֣ˬ˾ÿɰɡ,00´Ȧ,91֣ˬʵڲʺ߿ɰ·... ûɶʱи֣ˬ̬,ۿɼ,dzһ㡣,ʵݡ,ԴڵӾκεط,dz·˽ϵBoyishķ,ó,Ҳʱи,ʵһijǴաˬӴǰ˵,ֻúϷ,ԲӴԡոʱ...˼Ҹûʱ,so,,low,Ҳܲš
-fashion ŮԽµĸ߸Ьʱ棬ʸIJ ȻЩ˲֪ƽָô£ٸ߸ЬɷϵġЬԽϸСԽ˿ܼԦĻܸ벻Ч˿ļÿŮıرƷͣɢԸеʣȵļڣݵ˿𣿲仹ͣЬͷ۵ķ羰ߣ˿¸Ტãתĵʱִ䡣۵ĺɫЬ㾦ĵá˵ɫĸ߸Ь䣬ɫĸ߸ЬʱУǾƺɫĸ߸Ьͽһܴȹװǿӣȥϰȥ棬˴ңҲӰ찮ӴϾƺɫ߸Ьȥʱߡλţ߸ЬŮ⻬ЬԵóȼ𪣬߸ЬʵŮ˵һף顢ƢԸһŵд档ɫ纣ĸ߸ЬһƽŮתΪһ߹Ůߵĸ䣬ӾЧ߸ЬŮԴIJţһ͵ʶŮζÿŮЬﶼĸ߸Ьȴѡ˫Ϊÿ˫߸Ьóϲͬÿ˫߸ЬԼºɫ̫ƣ㲻»Уɫ߸ЬֻжׯķҲ˦һŵʸСЬͷ˿ÿòУʱζʮ㣬Ĵȵ͵ַdzз 㲻ŶŹںţ˿ ѧͼںÿȿɾ
-fashion õ µʱѶ,飬ױɣǰ,ȨʱϢʱʦѼȫʱѶȫҶλ߶ʱѶƶý壬רעΪϴĶ顣ȣµݶģΪܸı̫ࡣһϯȴɿƵģЩǶһͷŮĽʵԼҲԶŶֽϽѧɣʱҪͣȴֲ͵ǮȻŪһ̶̫ĹʱͣҲֻҪһѣʱõ;ͺˣԼͷʦر𣬶ҲԳƳ֡һЩСϣѧϰôȻľɡȻķβʸвӪ죬ֱΪŮϰ֮һ֮ͱòŻֵʹ˰ԼʹNG˺ܶ飬Ҳϰ볢ɣTIPS 1 һһҪͷɺͰʪɵͷˮһϾ˷ҲûоȡTIPS 2 ˮԸ־ÿþˮǶ־öͣصǣĨͷҲһҪȵȫɲſʹõҲ튅ᵣĵ˷ʣʵһܶлΣˣңľǣʵȥ̷ҪมTIPS 3 ֲȵȸô·һ㣬ϷٸüӼ𡣵ȵϾʱȴͷʼٴϷģõĿԲǰͲˣTIPS 4ʹǰԤĵԵ£һ㷢ǿ125桫150棬ϸ;ٽ25 ɣϸϽ25mm պáTIPS 5 ԼϲϾԷھڱȽϿɰ£ͱȽϻԸІץһСϾŲϲ˾ȡǵþ겻ᣬָˣȻë⣬ԼļţͿʹþᡣTIPS 6綨վȵͷᴵͣҪȥһ㶨ͿάһˣTIPS 7ǰȻķβúˣһȥԷ䯺ĺѣҪͷɵĿоҪԼϷֶ͵ķʽͬӳõҲüагñüае˾УԼҪٵϾһӦɣϣһֲеǿƪԻþ!һЩֽɰȨԭУȨϵɾ
-fashion ޱϰɫë£DzŮ ˳ԺޱԽԽŮζû붬ޱѾǰ˰ɫƴë£ðֵԸһٲȻһλƤġѩôأСһɡɫƴëƣޱһ̧֣ëɫ°ڶɵĸоһѷ磬аȫСϸëµɫҲǴɫеװɫƴӵĴ°γͬɫϵĶԱȣ·ǰԵĶľڵĶǵ˺ʱҲŻᴩϸΧΧ֪DzǿԽԽǿҪںҲأʵȫİ취ޱƴëµӷdzܽƤȫвߴ̴̵ĸо⣬ɵƻĵССģDzǺܰǿƤޱͰ¶ڸں棬һ˫Ư۾עӵľͷ̫ɰë´Ŀһ㶼ţпߴ㣬ޱĵĴ˸ӿ㡣˵˲뵽Լүү̡ʵʱľԪأޱƴë´ӿ㣬ﶬҪһӵĸŷ糱ˡɫԪص·ʵܰٴdzŮζ£βޱġװôޱϰɫë£DzֹɵŮ
-fashion 걬ĸԪ,Źʱ! йʱгһĿ·ֹע ƷʱԴ:MogĢ(cydb555 )ǰͬ´һǧĿϰ,Ҿû,ǿ㴩ǧĿͦÿġ,ͬǧʲôҾдƪɨä,֪ʶҪѡﶬԪϲһ,һǸ!Ϊʲô??Ϊǧ,ײѰո:ɫ仯ɧ,ɵɫ+(ֱ)֯,2ɫ,6ɫǧ:ϸʵɳǧͬһֻС͵ͼظ仯γɡͲ:ͬСķ̸ģѧ֪ʶ,ֵʱԸװϿ,֤һһġ˻,,ÿָʺôCOME ON~ոTARTANոСӢ۹ʷijƺ,ʱתķɿĽ,ʱнҲǴո on RUN WAYո,зȾϲMashamaŮϵ,ѷţƴӴɫո,ֱᵽ춯ءMashama 2017fall/winterBally 2017fall/winterBurberry 2017fallոƴҾոÿĵƷdz,ǿͳȴֽȻͬĸо,ľûдijݡʵڲϲŵ,찮ӸرԬϵҲDZһζ~ҶʱνУϵϵĻ䰡dzѡոƳ,ֺ̿ܲĸо,һ˼Ԧ~~̿ոƳͰȹǾѵCP,ְܹҵܴһֳϢԽ½ȹҲϵһ,ֻҪ½¶̫СϲһȹСҲԳСAȹ,IJοܶĵĴ,˿꿵ϵ롣ϲиеСͿ̿,½ȫ̿ͺˬˡΪʲô½ȥ?ΪֳijȾͻӪһûӵĸо,ȻֻҪ㲻Ҳô!ոԪرͱȽϻ,ΪȹֵʱעЬӴɫ,ɫͰɫ֤ΪƼ:ǧGlen Plaid˶˵ɯɾǧ,ұʾ,ǧֵ,ǽܻᷢġɯ,ÿ궼̲סáǧ on RUN WAYOFF-WHITEǧԭɫȻʸ,˵߸˶һĹˡOFF-WHITE 2017fallERMANNO SCERVINO 2017FALLWANDA NYLON 2017FALLǧǧ͵൱һ,Ժڰɫڴ,ܰѾ䴩ʸСǧ,뵽һǴְҵȹǽенͷ,¶ƶë߿,,ַӴиССǧ״СȹԳһɡСǧİȹϽINijñѷ̽س,ôΪƼ:ͲGINGHAMͲ,ҰͲΪһλԱ,ûʱһ˵ڽ,ͲĵƷ췶Χ˵dzĹ㷺ˡɫǿʽ,ﵽһ߷塣Ͳ on RUN WAYʦôתͲ,һǴDzͲľֲͽϼIJͲ,֭VIKA GAZINSKAYA 2017FALLDICE KAYEK 2017FALLBAUM UND PFERDGARTEN 2017FALLTIBI 2017FALLAQUILANO.RIMONDI 2017FALLͲͲĿӴɫƷи,һ˵С¡һҪ֪,ɫIJͲûе,Ծѡڰסĸ,Ų׳ͲӴʵĻ,Ļˡʽ:ͲȹѡûAȹ,Ȼ˰㵱и,ͼˡһ,Ͳ¥ôһ˫۵ЬӺͰͷ,DzͲINĴʽͲijϷŷ,V컨ij,ֱͲİȹţɫë,ﲻһиСΪƼ:˵ô,DzѾǵĸ?³ĸƵƷóŴһ~
-fashion СŮ´ʾ,ôʱ! ֵ˴ůļ,СǸϽᱡסoversizeëºƶţпسȥ˰,ʱдʾŮ¼,һлȡ´ Style 1:δ+ڴͬɫƷ СӴҪԸ,õļɾ,ڴѡͬɫƷ,ȴͬɫͬʱ,׳¶ڴɫһ,Ҳխ,ӾϷdzݡͬʱҲѡ伫е,Χ,ӾҲʮԸߡ Style 2:̿¸Ծ СŮıرƷN̿¡̿ţײʱֻٴ,ڴһT,ḻθеͬʱסβޡ Style 3:Ʒ СŮѧߵĸּɡѡ̿,߸ȹ,ٽȥ,֮, Style 4:Ʒʮ пӳ֯ҲȽʺСŮ,,вijȸԸߡǸMMҲԳԳСȵij,Ƥʮ㡣 Style 5:̿+߸ЬԳ ̿߸ЬܹɴȵļӸ,һƸеƶëҲܾ۽Ŀ,ֿᾢʮ㡣Ҳӽʦ:sshh3014,һһݵ90!!! Style 6:ɫ߸Ь+ʱָ Ȼǰ,,ʱܿԼѡ֯ţסƤͰͱرĿñ,LOOKǷʮ,ϵɫ߸ЬʮԸ,Լʧ˧ Style 7: ϸҲǽʱгֵİ,ͬɫ߸Ь,ˬˡ Style 8:ͷ+ Խͷ,ԸȻɫoversizeë´ɫƶţп,,ּ߽ͷʱָС
-fashion ѹŮ˶ˣдɰ£ݱů °ڣʱиУɢ֪ԵϢѡ ϣʡͨͼС̬ܺ䡣ײɫñƣÿСϸڣֱͲ𣬲ӷףǡôϸʵůȽϺô䣬Чܺãƴӵĸִĸоƴӣֶر֮¾С£ñƣζ·ĿɸУˡ뿪ѣƿڴʸк磬ӡմȾΪ·ů鶯ƴӣؿοգ¶ζײɫ죬θиԣʣĸĺʺﶬʹŶ һţпп㶼ԣ ٴֱͲİĺ͡ĺɫȷʵͦÿģ·պÿԵסȱȽϴֵIJ֣Ҳʵһˡ£ аͣס⣬ڣ죬ͷţʣͨӡͿ
-fashion ȫһԸŮͳձ˭Ĵ Ϸɫעת±ϵȨԼһӣϴνƽı̰︴ϰըǵİĹˡ˵ô˹ϴ˵ģˮ̫ٷļֻܺǺǡֻ̫Ϸⷢգɵ˹ͷϷô㣬ԼԼʵѹ˹ؼļƳ˽ڡ¹ļվܲ鵽棬2800˭óʱÿæ˦ͳԼѷڹļ֤3KԱŰʹʹһЦ˦Ϊɶ˺ÿģĸء˸ŻˣǸǹְ˹߶²ǵ˹ǧ˵FBIֳ˦Ǹǹֱɱǣ鱨ֻܹ־ûá˦˳˦ݰԣءϣϵܵܣ¶лŶFBIӰһṩ鱨Ҷ֪ṩİԴҲ֪¶ʮʷΨһŮԣǰΪԸУΪͳСҲŸֵйءðɣ̰ڷƮٽһ¶֮¶Marilyn Monroe20ǰԭŵꡤˣ192661ճǰĦгߣҲûĸǵӰʦܲ˴ؽԺ¶8ͱ̷ǿˡСʱûû˰Ů뿿ɫҸɽˡʱÿɱĹάɧˣ˵Ƭһźɫɳרcasting couchŮԱſǶDZֵز¶ǸʱЩʲôʮϰ߱ΧתӾװģءաѵáѵáòѵá֮վڵοϣķȹӴù춨ԸŮλģ¡һֱ͡׳ˡ˿һ˵ıҲһɽ¶ػ顣һֻ16꣬ΪиңھӶӣɷξ飬û뵽źɡڶɷǰǣ˵з̫¶ôܷأֻά274θҰɪգ¶ޱȳ˵о⣬IJܳɹ¶ָ˶Թǡݡ֪ʶӣЩ˶Сôǿˣֻͳˡ˵get˧㣬ÿʱ۲ͬģ˧ģʤڵСؼػݽԹȺϲݽˣƻͳԴϵԱʱʶ¶ҲԼ¶ܵСλ磬1961÷˵áԼұϡλ÷ҲԱͳţһ˼ִﻶġȻϲƯ÷ϴᣬͳ˽ܿڶȼ٣¶÷ҹ˽̽ƣ¼ֳ֮˵¶ٷīԼᣬг̱鱨աCosԼ᳡ʵأ¶˵ϻ𱬶װģͶˣҿǸٶHe is a quickyЩǹһܰ¶Ȼ˽ɶҲԶˡ˵ûɶȤ¶һİϿϡϾʮԱˣܵΪ㡣ɵ£עһƹݿ÷˵¶ѵ绰˰ҽ̯ܿƣ˵ϱ֤顣Сʾһƿڴܿ˵üˣеְ𣻶أһȥһ㡣 ¶ýܿû취ÿҲû취̫æˣǸϴͳ硰½¡ŰΣǽ·¡Ȩ˶¼ƻԸԽսͳĥԿͣ˯Ůˣ¶Ȼȡͳˡſ죬¶˹Ѹ£ˮɫһʿдţܿˣ¶Զ㡣Ϊ¶׳÷ϳˣƤΡԸеȫ飬Happy Birthday, Mr President֮¶ֵȥ鷿Ц绨ֻܾͷͳ㾵ͷܵһ߿ŴһֱдŴ绰вҪұ綶šϵܵصʱ˾ȥȰһȰһ˯һûҲˡ3˶𣬶Ī¡¶˽dzſֻ3£196285գ¶ֻ36꣬ҲաʬҽΪܴ֮ɱҲϲδθв°ҩôìܵʬ氡˵¶λֵ³عڣҲվסšѾɣ¶װ׳Ϊһڣ̫һ١ɫΪŵ˵ǻصFBIֳϡļƣ¶֮һռйءӵ鱨¶죬ĵûڵĸֻܣͳشˡ¶һȻдˣ䵽ô죿ֵܶϾ绰ѣ˵֪һЩΣյܡڶ賿DZռҲʧˡһˣҡһĴֻҲաţһձĹ¡СǵĿ¼ȫѿҳظĿ¼ͿԿںÿ£ϲֻҪһ¾УҲҪظ
-fashion һʺԼĴ£ʱΪ ܰʾϷ"ɫ"עǻӭͶ塢˻ĺʱڣŮǿ϶³úһЩ·ֵôЩ·ĺˡﶬ³УұӵеĵƷܾһˡƷȷˡͶʸߣżȴһװߡԣܶŮѡʱȽϽ³2~3㹻ˡѡµʱһҪʺԼһҪٴһʺԼ·ʱΪ֡ôѡһʺԼĴ£ЩѡµĹؼأؼһɫﶬڣŮɫΪؼضΡĵΣﳤܶʡõξͻ֡һϸڣܶ͡˺ԡµǷֱͣӾǷԵȡѡεʱҪ˽ѡµεʱҪ֪ԼΡҪ㡿ηΪ棬һ͡һ·ͣȴ͵ijУʧȥЭȡԲҪ͵أΪװ·͵ѡȡ͡AISۿҪΪֱࣺͺΡְֱΣΣΣʯΡΰԲΣԲΣΣ͡ÿ͵صͲܣѡװ͵ʱֻҪ֪ԼֱͻͣĿǰˡסһ㣬ѡ͵ʱֱҪֱӣҪӣ˳Ӧķ˿ЭҪ㡿ֱ|ĶΣʱеŮǿҲ֪һЩΣXͣYͣO͵ȵȡʵֱϿԷΪ࣬ӦͣҲֱͺΡֱΣΣΡƻΣɳ©Σ8ΡЩӰŷװεѡͬסǸ˳Ӧֱ˴ֱΣ˴Ρֱ+ֱ | +ֱ | ֱ+ | +ĵǸΪҲǸӵһڣͺϵһʱϣǾѡκϸҪءͺ͵ɣγΡֱ+ֱġ+ֱġֱ+ġ+ġDzôӣΪֱֱͣͣϣ͡ոᵽֱֱôôأΪҴӴµϸ˵ʲôֱʲôѡµʱ뿼ǼַװһǷװҲ·ļûⲿ·һеǵֱߣе͵ߣе£֮䡣ͶӦϸոᵽεֱֱֱͣͣͣ͡ | ֱ | ֱ͡ʹص㡿ԵǣֱġԵļߣǰߺ°ߣȽǷĸоǼ졢ƽ졢ڳĵֱ߱Ե졢졢ǹͷ͡ڴԵԣǷΣߴDz͵Ĵ¾Ͷ֮ǰᵽֱΣΣΣʯΣ+ֱģΣΣΣֱ+ֱڹƷУ͵ķҲdzġChanelGucciAdolfoAndre LaugȵȹһƷƣڷװ϶ֱߵƣҲǷdzʺֱĵ˴ŵġ2017ChanelGucciƷȻֱʹص㡿͵Ĵ£ⲿȽƽֻͣһߣϽṹȽϲϸܻΪֱߡװ͵ģԷϴ˿͵͡ΪԷװûм˵ֱԲֱˣԴȻΪǻͣߣıȽֱߣʺߵĻϡֱ+෴Ҫֱܱ߳Ƚ϶࣬˳Ӧŵַ͵Ĵ¾Ͷ֮ǰᵽ+ֱġֱ+ĵ˶ǺʵġεĹƷƣIssey MiyakeլһGiorgio ArmaniᣩCalvin KleinġGianni Versaceᡤ˼ܣЩлķװǷdzʺϻε˴ţֻҪעԼµǷЭɡʹص㡿ִµⲿģϾСЩͨ·ĽṹߺʵֵġԲģģԲαԵ졣ҲԲΣΣбءڿлߵģҶߵװΡڴǸǴԲλڴģܹʾŮߣߵġ͵Ĵ¾ͶӦ֮ǰᵽԲΣԲΣΣͣ+ģƻΣɳ©Σ8Σ˴ţǷdzЭġεĹƷƣValentinoŵChristianDiorϰ£Halston˹٣Emanuel ungaroŦ¼ޣƷơµõߵģŮԻеġͼDiorɫ£ͣҲǾ߸еġѴһ㣬ѡµʱü˵װʽ磬ԲĴż͵ԲȦĴ£ֱʹżֱߵĴ¡DZȽֱ͵һ࣬ñԵԡֱеѡԼƵķװģܴﵽȡ̡õЧгŮѧIDShoesgod Ҳһ עǣ ͿԹע磬Ȩԭ
-fashion ŮμѣдʱеؾһñӾ! ŮDzŮμѡڿʼɻǰһաɫ֯ëµİμѣͷë߱֯ñкڿ㣬μѵд˵ǼۣμѣڹݣŮԱСʦáǡǰιԡĹۡСġǡǵʮ꡷εġСաôûһ ԭĻȻأʵеİμѣ˽ƷǾֵѧϰμɫװźɫͷݱñɫȫȻһִŮ˵ʶȼװ硣ԼTİμѣͬɫҶȹͬǴݱñΰμѿǽŮ鶯Ƥչ֣TȹĴҲǾԺʱŶ~ԲʱɴdzɫȿİμѣĴȻΥС˰μѵҲ֪ԭȿ㲻ֻţеİɫСİμѣͷ䲱˫chokerʱзɫװɫɴȹͣҲðμѿ¡ͷôڴȫװɫƤ´ɫ߷ֿİμѣһڿװǹʱ֡ȫΨһǷİɫñμ˼ֻ˶!λɫѩ´ɫ㣬о˰ɣһɫë¿ǽμѵչֳ˾ðμѵЦҲǺϵأǴϷޣӦĴεĽоƯIJȻԴ!ҿμѴˣôҲϲԲŮμԭͼƬ磬Ȩϵɾлл
-fashion ˳ͬݷ12500飬ƷƣٳЦˣ /Max˳СĪʱǰأưңBalenciagaƳһۼ12500ij£˳Ʒ̰档崩һ·̱й˧Աҽйȡеĵʱдơҡйʱд⼸꣬ҵIJƣܶй˿˸еʶҸС֣bianᣨzhi㳡һdz׳ۡûһڴ˻վĸоò˵йƷơٱ̰˯°ҵģش㳡һߣۼ۷ҡֱñҡйë̺ޱרðһ̥ǡĵûɽӵƣڴϣϾƽӹ·˻˾롣ֶغͽdzɹʿҪĸоҲףЩƿ벻˹˿͵ۡǴ۶ӣҵҵƳЬڹֱȺ塣аٷְүүǰĵоһŵšԿΣۼ630ӢԼ5500飬һ㶼fu*k˵ֱDzʱʱʱС˰ҵƣ㻹Цֱе伣18꣬ϮҪƿŲһٶǰ˼ҿŨŨĹ巶BalenciagaɰʵںһӰĹʵƷƵ־ǴʼCristbal BalenciagaүӵϡBalenciaga 1895һСɥСŵ÷ĸסʮʱżϵĹˣССظṩϵо˴ΪʶȥļѵBalenciagaԴϮΪʱʷϼļȻơֶ÷Ƶƴʦʱɯ˵ȶָƵʱװҲʱװ־ѡΪŵˡĦɸGrace KellyBalenciagaƵʱFabiolaʱĻɴBalenciaga1968꣬һµر˷İҶˡ֮77İүš18꣬ʱнδŰҵĴ˵Թסdz1986꣬˯İҲſʼգŶΪŬߡƷʦDemna GvasaliaְҺƷƴһƯķ̡Demna GvasaliaֻһСûиֻơֽİۼ876Ӣ7600+ñҰ...һ⣬Ѳ²ɶһĦгӾӸеְıҲ˧ըʸҰĦкŮDZţҲֻаҸˡˣBalenciagaľͬϵб2030ԪԱۼ12ԪһǧƷdzǿ˻жᵫֻһ죬Ͼļ۸ϵ˯ҲЩݳޡǿܻBalenciagaǮʵˡΪʵذǮӡ·ΪֻǸߴԼǮ ̨ظ йؼ ȡɻս봴ʼͬУ
-fashion ֯:֯ôз?5֯乻ʱ! ֯:һһ,ҹڵijоһҹ,糿վڴԸ½Ҫʲô·ܵһ˿,Խһƪ֯ôз?עıůķɹŶ~֯˵һ,DZƽʱһҪô,һ֯ԴЩƷ,Ϊʱִ!֯+֮ţпϳ,ҿԿ϶˵ܶһ춼ûţп,ΪǰO(_)O~ţп仹Ǻܾġ١˹¶ (Behati Prinsloo)´ƶţп㲻ʮ㻹ɹŸ!Ľ~֯ëҲDzѡ,ΪȽϼ,ֻܶԸҲԸ··,֯ë¾˰͵Ʒ!йĺܶϲʱ֯Ժ,ܻģһЩ,СµӿԳִŶ~֯Դ䱳,ʱʱ̲̿Ů,ɼDZ!֯+ȹĩǺʺϴȹ,ȹӴƮݵ,Ҳʺ^Ĵ,·硣ӡȹӯʵڴ,Ұٴ,֯´ӡȹ,ƽЬҲܴ!ɫ֯װ,ʳڸʮ,¸Ը!֯+̿˵ܶСŮǷŲ¶̿Ĵ,ΪʱǺȵ,Զ̿֯,,ֶΪ,ɰ!´̿ȳŶ!һг֯,Ժġ֯+ȹﴩʲô?ȹһѡ!Ϊ֯ȹcp,ֺÿ,ֻҪɫû!ɫӡɫȹ֯holdסĵƷ!֯,ŷʮ!֯֯䲻涨,ֻҪÿԼķȥ!ԺܸԵװҲԺԵļ䵱Ȼ˶װװҲԺܺÿݺɫ֯ɫ+ȹ,һ˫ƽЬŮʮ㰡~֯Ӧÿ¹رĵƷ~֯ʽѡŷպл!Ķ?^Ʒ,Ͻ~~~ھƼﴩʲô?ȹһѡ!ȿ˫!ȿʱָ!´ʲô?31ʱд´ʱһ!˽ŻظĹؼϲ鿴!֡ȴ֡СӡΨ䡢ġʿ֡Tȿ㡢ȹЬȹװñӡشƽءӡƽЬī㡢Է硢˿ȹں졢Ӿ¡ɴȹ߸ӡţסꡢȿ㡢߸Ь^('')СŮ~˵ʮŶ!
-fashion ﵥƷ--൫ô!ҪʵõĵƷ... ſѧĵ,ҲĽ,ﵥƷҲ,൫ô,ϾһǮһѲʵĵƷ!һЩĽijֵļƷ,ûҪĸϽԼ嵥,ѧҪĸıԼ!# #Ǵ^·,ÿڶٴڴԡܶŮҲ˳,õƷˡֲ,߷ֿ,ԼȻģСЬʺ㡣ȿʱ,,ĸ߷,Դѷ硣ɳ,ӭľһԸӦĸй顣ν,Űɫͻɫп,ˬ,Լ,ͷŮʮ㡣ٴƷӵͬȿ,ǿԴǿ߱,ӳºţг,СñϺɫī,dzƯ,ƽЬokѡӡ黨߲ij,츴ŷѳĴ,ӳģǶϲ˽͡ѡոպ,·绹ܷɹ ʱ״,һЩԴס# Ь #ȷĴʽȹװ+˶Ь,ÿMCƽʱ̫߸Ь,ӦƽĹϵ,ϲ̤̤ʵʵƽЬЬ,ʱ,ֿɶڷЬ,н֢,ǿŷĵ,ķЬôfeel...һҵİЬȥĨҡһ,ʱ,ɡVans˶Ƶľ䡣İЬԦƸȹװʽװȹ˸ġաȹװ,ҪڲͬĻ,ѡһ˫˶ЬͺܺÿˡҲMix and Matchڰ!Ըʱֵʱȹװ,ϳưЬ֮,Ը,ͷԷ硣СռǺǿ,֯Ըнȹ黨ѩȹ,һгȫ㶨Converse߰Ь,һֱdzߵһ겻ľͼLogoһʱеĻˡЬ⼸ȶDZȽϸߵһ,ƪ·Ƕ˫Ьٴ˵Ьٴһ㶼Ϊ,黨Ů͵ĻƤ¿˧͵,ȫHoldס!ô+ʱ֡ӡЬļµĦǸ,üҲܺһʱ졣ԡͷԡһЬ,,ϸŮԵƷʱ,Ļôо:Ҷʱе漰Ļ̫Ƿȱ!ԭһ֡&ʱ֡Ĵ# #Ҳܶ˻ѡĵƷ!ò˵ĺ,ѧʱڿʼͽǵ¹,Ҳܼ,ʵ־,á¦ץ,ɫ´ţж̿,ʮ㡣ޱɫµġʧ١,ϸֱ,!ݻĺڰɫ,ɫ´ɫñԼСЬ,ȳݽڴµĴDzٵ,·ʱɫ´䱪ƶȹ,ɫ֮ǰFenty x Pumaɫñ,GivenchyСЬ,¼ơ֮ӡձ,ͷ´ţпҲһʱ!һ㶼ţж̿ȹ,Եøഺɴࡰʧ١,¶ȡѡ¿Ѵ!ʵţпһʺÿ˾ܰ,ϸ߸Ьܺʱ֮֡䡣
-fashion | ﳣĺÿȻӵģһ ˺ܶĽͼֳЩѿڶĴư֮⣬һ˵ǽıˡڲǵ˽и洦ɼ캣һ˶İƷơStaudStaudɼСƷƣ2015ReformationǰܼSarah StaudingerReformationǰδܼSarah Staudingerһ2015StaudΪǰ˾ͬɼƷStaudIJƷУнΪķγͷɫ鲻ϳϵУɡ״͵ΪStaudεбɫϸڣƤƳɵðΪStauddzƷ BissettˮͰDzһˡİƴӲͦΣʸгáһӰɺ (Alexa Chung) ÷ (Leandra Medine) Ҳ֡ƼƸʮ㡣StaudƳ˽еˮͰ˽һɽƣСɵİҲڽгΪһ㡣˿ɰıStaudŮװҲǺ˵ġStaudҪԸС·ߣ¡ϷԵĿӡԸеȹµȣֲãзɫɫµɫ崺ĸоΪƼɫŮװ1ȾStaudϷ䣬¡ȹӡ֯DZɴټԼĵúܾʡɫŴɫƴӸԸԿɰ2ɫȹҵȹStaudҵȹţԼķǴɫģɫҲǵ͵ģˮɫɫīɫȡżһЩ壬䣬ҶߵΪԻʡ ɫʷˮƣһ˿СԸСStaudһЩɰȤСӡͼá3Ըз磬StaudĸŷҲǺͻģŵСͺϲÿһɫʶвͬЧ֡4ԼŵּĸСΪǺܺõѡڷװ˵ɫʺͿʽһҪStaudһϵеСɫ۵ķɫɫַӹŮġ
-fashion ²ǽеİٴƷÿ棡 ýܼ֮ڿʼתҪ˵ôchicĻƷԷĪŽ˶ԷʱȦȻɹϮΪԴʱֱǩİʵִܣ۵orڴʱ͡2017ﶬT̨Ͽ洦ɼȻǽijص㡣ǵĻĻ˽ѷµijʿ൱ĸߡйģ˽Ȼױ³аĽࡣھỻδܴʱиУһ˧ٴʵ¾Ϳ㶨ʱִ䡣е¿ʽΪر³ҲкֿܶơеҲֵøλֵģ⼸oversizedµһҪǿƼıoversizedˡʱȦдСڱԷʵ¶ԣһҪoversizedźÿܴʱͷҪעǣoversizedµİͲָ³ӣֺοɸСͼְͿɵĶ̿£ʵҲdzзֿijҲʱİֿᾢʮ㣬ͿԺʡ룩¡졢ʱ֡dzŵĸԪأҲ뵽µƵС쵽Χ»ͨ¸ʱ˧һָŸСѡְĿʽҲֺܶиǻĸ¡ԲµȻԲһֱܴҰҾ˶ܼԦĻƷԲƵ±ȽϻѰ˵ʱѡӡͼĿʽʱָܸһ¥ԲҲʺĿʽ¶һس죬ȷḻ͵ʱֲθУҲշIJӱȽ϶̣ôֿ»ѡV͵ƿӾľͻкܲáVµƣڱ˧ĻϣֽܴεСŮζñ¶ñ¸ˣʱ𱬡ͬȵƷϹԼһŮͳͳڴñ²ЧʣͬҲײͬʱֵֻӵСѧµNʱִʱһoversizedȵȸoversized¿ɵİ볬Ʋݲ⣬ֱӵDZȵİ֡°ʧ١ĵ·ӾֱȲԸЧУǴƽЬor߸ЬǴд˧ޡҲʺճҪֱ˶Ьcpˣഺʱ֡ŮݵĽı䣬oversized+СЬͰñףƼȴdzƷʺճ㻹KendallͲһֱoversized»߸Ь˧ԸŮζںϡϥѥoversizedҲǺѣСҲԷijԣľ·160+ӾЧ+̿̿һĩѴcpڵʺϴһѡţж̿㼴ɣ˧ֺл¶ܺÿȻƼĵȻoversized̿ϳ¶̵Ĵ·ʱ֡+ҲǸλgetĻ·ůӱͬʱܷḻ͵IJθУԳʱֺƷζԲʱ˿¶֮⣬Ҳֻ¶һس°ڡִһԷ+ǰᵽġϳ¶̡½Ĵ䷨ͬ·ÿɵoversized´ȿ㣬Ӿϵķл˫ȿȥ˳ǵѡεľŷֿŶԸmaxһ˵ɫСſoversizedµЧСݡʱֹ۶ôѡϥǴƶƵľŷֿ㣬˧ȻȱϸҲýţпɫСſ㣬˧chic+ȿȿļӳ£зҲܴ·ĿĽСܶƾ+ȿlook˲һĹȿ㱾ǿɵİͣԴ¾ͲҪٿǿɸˡһѡ̿ãԴõıȫȵļӸСҲµ°ߡ+ֱͲиʵֱͲ㣬뾭µĴҲǴдۺÿ˧ɴͷ·ģ˽ԿɼԦʺճĻ·֮һ+˶˶糱ߺ죬ͬʵϮĵƷ˶㡣ֵƷһ֮ϡʵĴȴַdzᾢʮ㡣+ȹҪ˧еͬʱܼŮζôûб+ȹľˣɴʱinman˽ܴʫʫԲԲdzӰԻϡڶȹ¶ȲʹܿoversizedҲȫԵӷףԣֿʽĶȹ·dz䡣ҪŮstyleƤȹ+µϲɴһɫorɫϵѡͻᾢʮĸԡȫǰɫϵ̫ƵĻѡͼӡorĸӡĿʽʱֶȡ+̿ȹǻƤഺУһطŮʱİȹµĻЧҲdzޣӯǿƼҳ䡣㻹ýȵıɴȹֿĸСŮ+»ﶬʵٴڴеһĽࡣƤпڴ¾˧ӱţҲǴͷľcpģKendallƤʵ֡½ЧϥѥԸζͷʱΪڴҲǽ곱ǷdzԵĻ·µļӳֿеְͨʣø˧ͷʮ㡣ԴıKendallܶһսɫΪorʱȽʽڴһñ£Ϊ^ͷҫ۵Ĵڡٵ͵Ļ+Աп˵ϾʱůͳͳӵСѹָ·dz˶cp꣬Ϊһµı䴩ܴףҲdzġͺʺϰ˶ΪʷµڴкͷµijʣlookƤ·ǵĽĴͬųߵijʡ˽ķ͵촩²ʱ֣ÿְٴʵǻŶӴ
-fashion Miuo˿Ͷ,˽!104 ΪͶ,,֮ġ˽Ŀ,ҵҪҲ,پճԸ,ĻзĽ,Ҳ桱Щ------濪ʼĵ-----һλͶ,ϴͶܴ,֮ǰһֱûԼ,ֻоﲻ,ֲ֪,ʦһ:̫ȷʵ,̫,Եÿ̰,һЩĽ,Ǿûõͻ,ϣҪܵõʦָ,ڳ·ϲϽ,!:{ͬѧӡͦ,Ͷ,Ҿǰ,εĽdzͬѧ38,168}{ ЩһͶƬ,ҵʱָǡһ,ȻҲûʲô,·Ҳʸ,Ҫġŷ,ȱѵĸо}{ ڶͶ,ȻעһЩϸӪ조СĴ¼,Ьӷɫʴ䡢εȷ,һЩС⡣}{ εͶ,ǰһ,ýdz,ɫϡЬĴϡɾɫ,·ͺʸ,Ϊ30+lady,ѡ/ȹ,Ƕȹ,߸Ьļͷ,Եš }{ Щ,ҾõһɫT+ɫAͳȹ,ر,T+ɫ+ɫ,γɫϵĺӦ;ɫЬлɫȹɫʺӦ,ЬĿʽҲܺ,,ƽҲ}{ ,ͬѧķ,ȻǺڳֱ,DzͷƤһĺڳֱ,β,дüƪ,ǿ͵ҪԡͶֵʵӰ,dzǶ̷,ֵر,Ȼһķͺ,㻹۾,ǻ,λͬѧÿķ,ҲΪʼӷֲ!}{ ,ͬѧ38,ıֵĺܺáȻдܶܶԸݵĴ似,˵ʵڵ,ܱõ,ѡΧ㡣,һļ,лʸ,Ҳ,ġ}-ڶλΪһλϷ,뷢==Ⱥܸлmiuo!⼸ĸÿؿ,˾,miuoԿҵķ¼֪ҵı仯ˡϣõmiuoָ,һôı.ܸʱƷζзһЩ.ϲ֮ǰʦУŮʯԭ͡лmiuo֮·~ȶϸڵԸз:{ ,ڴ´,ѡΧ㡣ҿԿĴCF,ǶȹĴ,ȹӶdz,ûиǹȶ֮һΪͬѧ,Ҳϸ,ĺϸ,ֳȹ,źÿŮ! }{ Ҳ˵,IJݡе֡Ǵ,ô,ͲҪȹ!ȹֻᱩ¶ȵķ⡢δŪûɫĸо!ֻݡ֬͵,ʺ϶ȹ!IJݵͬѧ,ϥҵȹ,ЬխЬͷԼ/խ¶űЬ,!ȹЬӿʽ,ȱһ!ȱһ!}{ ΪݡֵҲ,ֻҪҴעЩ似,ûи֪,ڷҲݹ6,˴A,ǺڰɫĴ,Ҫ ʱƷζзһЩ. Ҫи˷ʶ,սɫɫÿ,ʸС}-λ28,160cm,53kg,˶,ȳơҵλϰ,һ,ұʵСһ㡣ǰűȽ,ʦѧϰһʱ,Ҫ㷢չлʦڳͿ,ɫ,Ծ¡ƷҪԡʦ,ҵijǷȷлʦ!:{ͬѧĴ¿,,ܾЩ˵ıŤ˰,ͻȻʶ,dz,λͬѧIJ,е!ҲDzǰ̬,濴,Եòܶ,ԵüҲȽϿ }{ ݹ6,ҸоõǴD,˿ʽࡢ++ʸɫ,ǼɫTǴV,VӾԲ!ټϸȶ̿ЬխİЬ,ȲҲȽϽ,ԴGﳤܶˡ}{ ļ,ABCE,ٶ̫Сβ⡣}{ôBʾ,״,T+ɫAȹ,ЬɫʺӦ,ƺûʲô,ȴúÿ,Ϊʲô?Ϊ׳ˡЬЬͿ֡Ьֺܴ֡ȫסű,ҲԶ̡ }{ ͨPS,ҰT,СԲĴV,ȻͷŵӺȥ,ȫ¶Ӻǵ,ӾӾԳ;Ȼ,ҰDZصĸ߸Ь,Ьխ¶űİЬ,¶ĽűΪСȵ,ҲԳԵӯˡǿ,ǡЩ߸Ь,ƽЬȳõӰ!BԭͼеĿЬЬô֡űȫס,Ь,ʹٸ,Ҳȶ̡}{ ,ҰBеɫ,P˺ɫ,һЬɫʺӦ,иǿ,,+Ǿɫ,ûоøÿ䡢лchic?}{ ⼸,AC,Ҳ̫,ûӶ̵⡣,֮ó,Ϊ,״,+Aָȹ+߸Ь,Ůľ,Ϊ̫Ů̫ľ,Դ۾,ԵùŰ塢Ȥġصİ,,Ҫô,Գͷڿ̾,Ȼ,Ҫô,ͱ۾ˡ}{ FʵŴ仹,鳢ԴƽСñ,ñ,Ĵ,ͻϸڸиchic}{ EEһζȹ,۴ӿʽɫ,ŮԻ!ּҲĶȹ, ¶֫һ߸Ь,Ǻݵƽġҳ䵭,ȻסԸС!}{ ͨPS,Ұĸ߸Ь,ɺɫƽװЬڲȶ̵ͬʱ,ƽЬˡԸС,ĸо,ͬʱɫҲ¼粿ĺɫγɫʺӦ;ΪIJӱȽ϶,µڱȽϸ,Ǽ粿һɫƴ,ټϳ,ӾϴСںͺƴɫԾС(ʽֻʾ,ʽϲ) һ,ûиоö?}-λͬѧ,ûи㹲?
-fashion ûAngelababyǿӵbaby ԸԸϣAngelababyһֵĽʺĶòΪܶηҵϣҪǣӵһϹһв˸пȻ˶ҵõˣӵAngelababyһǿӵˮ覵baby֮ǰڲժĤϷڣٻҪΪAngelababyޡȻüëߡëױڣʪĤһϲٺĵױҲ÷ˡȻͷǰAngelababyȻ覣Ӥķ۹ʣۡʵAngelababyڽĿҲǵһˣеһؼʱӱֱûϴƤȻ覡ôõļȻ벻ճľĺǻСAngelababyңҪʲôݻƲƷʹǮѧҲաһɹнĿУAngelababyҪʱڻ¼ƽĿΪ˱֤ߵ˺ɹͳ֮ء¼ƽĿĿʱAngelababyֳɡڵ̫ڽ⣬ʱʱͿϷɹ˪ȷɹЧΪʱڻɹһAngelababyʹЧĻƷΪƤ£ɹáҶˮϴAngelababyտԿļƣʮ㡣뱣ּĵԣѡˮϴԽ沿ƤԣϴһЩ֬ĻƷĦӣǿƤѪҺѭӼĵԡȥΪ˱ּ⻬ΪûƷӪܸõرգȥǺбҪġȥܹྻüظҪעǣȥʱ䲻˹ӲԼ3-5ӡȥƵҲ˹ߣƤƤ1-2/1ܣƤ1/1ܡǽﶬȥʵĴʵ١ģĤʱĻȱˮAngelababyץʱĤΪˮ֡ĿǿŷһĤ֡ĤʣľҲҪ˷ѣĦٽա˯ĤҲAngelababyõݷַ㡣壺άCάCЧҶ֪AngelababyÿάCϰߣΪⲻԹǿȺܴ˵dzʺϡ˷⣬Angelababy˪άCܱʪܼƣһá
-fashion ҵǰʵһĵӾ?! ǰʱ䡶塷֮,һ¾һİ칫һȳ:ҵǰ㲻ϺܹѪ·,ôҵ鶼ŮϹ,Ůһ,ԼϲȴϲŮⲿһЩɫװ,ŮĴ˺ܶ˵ĹעžŮǿְ,dzΪȰϻᴩŮԡPԬȪƹݼŮԱ,ǿǿݶϷ,ЩѪżÿˡPݵӾ,ǰʮһִš˼Ϲܵȫְ̫̫ܶ˶˼ΪʲôӾʵǷҲᱻϹ!һᶨػش,ȫҵǮϹ,ֻӻȻ,ô˭ܲˡӾôӻȷɡʼľͷӾ̳ Azzaro Ь,ԿóЬӵҪܸ,һ˫ʹԼ 2 ԪҡCeline ë¼ Delpozo ȹ,˵ڴʱѡһЩɫϵġӾɫͻɫɫĴһʱ,˸оӾϵIJ(ͼƬP),ٴδ Celine ĸë,һɫİȹ,˺ܶࡣٵȥǰڵӾ,ֹǻ̻ƴ,ϲ̡ڴɫ, Stella mccrtney ,һߵ(ͼƬP)Ӿײɫʱ,ʺԪءNeedle&thread ȹ,о˲˺üꡣ˵ȹ,ͿʼŮۡԵӷ֮,ѡͬɫ Peter Pilotto İȹ,ҲһŮĸоûС Victoria Beckham ȹ,һӾǰڴÿһˡӵӾ,ĸһ?ܶŮǼе,з֮ʲô,ֻᱧԹͻǮһûеĻ,θͻúܴص,к,ӾʼԼµͷ,ɫҲ˳ࡣ(ͼƬP)ٿ,ɫĸë¡ɫ IMMI סɫ Burberry ְвֻܴڰ,ԵǸ(ͼƬP)ʵһP̫ʺɫϵ·,Եûʲô, Delvaux İĺܺÿ(ͼƬP)෴,ɫͺ,ЦҲܱ¡ص:Ҫμ֮,ɫһܺõѡ,ķɫ(ͼƬP)ĺϲɫϵĶ,ӾһѡƴɫĿʽ MSGM ԵûôȤͳ,ڴӦ LV Ϸ,ϲһ̡ÿһһ·,ҲûôҵǰŮ·ظij,ֻǻһִ䷽ʽ,ֵýĵطܶŮܻ˵û·,ʵ㻹ûѧ,ѧһ·ִ,Ͳ˵Լû·ˡ-THE END-˽ʲôİ,ڡһ,!㻹뿴ЩǮ | հ | ѧ | TOTE Сڰ | ˫ | | ͨڰ | ƽ۰ ͷ,һͺ < 뷢ʼ coolbuy@ifanr.com >
-fashion ݾͿһͺܸڴûholdסģ еˣɴϹǵָҲµżƯ¶ȣһ˼Ҳ䲻¡ﶬװѡȴǺ٣ҪôҪôȹӣȻ죬ûмŮֻӣϾȹӲŮչʾ˵촩ȹӵŮˣ˵ҩȹﶬõѡ׳㰼͵ʵƷս֣Ůζʱилdzǿ˵ȹӣһϵ㳡&ķ֣ⷢȫʱŮ˶ڴȹӣԣdzIJ̫ԳƵȹӣҪôdzȲԳơҪôɫԳơҪôƲԳƴCelineJil sanderСƷƻdzȲȡɫͬǹղͬ...֮ǸеƵIJԳƸУ㳡ܶŮҲվڵ˼ϣμӻѡľгȹβμӻҲɫƴɫIJȹһ·dzᣡPμӻѡҲֲԳƵͰڵİȹʽdzȲľǸԣڲòôһȹˣȹӣѡڼϥѣԿ˲ǵĽģϴĶϥµijȣԶȹӴҲЩͲȵѥӣůֺÿϥȵȹӱȳһ˿顢ȶȹһ˿ׯDzμӻճϰij϶ɴ䣡ʵӴľͿʼгijȣ⼾ֻǼѡˣʺﶬıůءͦƤʵȵȣAnnaȹӵȹҲǷdzIJܿ°dzֲ̫ƣMarniCelineﶬ⼾ƵĿʽϸֿ͢бòԳƼ䣺гȹ+ѥ/ѥóȹ+ЬΧȹӣһббĿ÷dzȳƤϵѡ˼ֿᾢֿõĿƴǰȽϳʾͷdzˣ⼾ͬdzձǼϥгȹɫĿʽһ+ͷdzʣĴɫȹǺôôִЩףЬȻѵĴ䵥ƷͳѥdzܶƷƻ־posterô䣬Ҳhigh-fashion ѡһѥԼѥǺܲѡûжǡô¶ϸIJ֣2018ĵfashion trends ɳĿȹ糱һֱ2018괺ģƴɫԳƼ䣺ƴɫȹ+Գѥƴɫȹ+жѥ/СЬȹƶdzǽʵĵƷеĻǷdzAȹȹһϣΧޡáϵƴɫȫǺÿܣѡȽдеIJʣһoversizeë£ѥӻСЬdzÿ Loewe ĿҲDzƴɫǽеɫ+ɫůʸУжѥͺܺÿȻѡƽ˶ЬҲdzÿ۵ȹƼ䣺ȹ+СЬͷЬ̿£ȹʱװܵͷᷢİȹIJˣΧʽʽİȹȻƸӵȴʵĴ䣬һ»ҲDzסƸгǿǰһDZжֲʡսϺͱ仯бøǿ·ȫChristopher Kaneе㴹еIJʺͱɴĽҲdzMM6 Maison Margiela 2018ҲƵĿʽƸзdzǿбȽǿʺϴ̿¶ȻܻӷŶЬҲںأ¶ϸĽѡܺҶ߲ĿȹƼ䣺ԳƺҶȺ+ϵЬЬë£ԳƺҶȹë´ƮݲʵĺҶȹܻdz⡢ĸоЬѥdzÿҶԪڷdzеԪأdzñϴϺҶߵСϸǸֵĺÿǺΧȹ߷顣ŮӦöܾ˵ĺҶߣJane BirkinһһֻӣŨķʽߣиԣɵĺҶȹڣֱ̫ÿһһ͵ij+ԳƵĿʽҲǽdzеȹͣƸзdzǿĵĻԷdzϾֻճһ+Ҳʱֱˣ㳡ҲԿǿIJԳз糱ʵͿȹеƣһ¶ȲdzȲһ˫ѥdzÿȻԳأص㲻ԳȹװĴصǣ1ëµѡһҪԲͬĿʽȹװʽԼǻǦȹȹ֮ġİȹƸжȽǿԲʱȽϴĿʽĶȽУʺ϶̿µĴ䣬ǵðѳȹ¶ͲԵӷˡ2Ĵ䣬Ҫô̵¶ڡҪôȹڣ볤̵ʽײλңӾ֣䰫졢֡3ЬӵѡѡȽеѥ״սԵӷףٴСЬЬҲǺܲѡо⼾ȹӣĻʧˣ
-fashion ѧŷŮĻ ȹ! һЩŷŮdz˹Ǽƫ,˫Ҳϸ,̰˹ٹȡ𡤿ɺȵȶǴ˵Ĵȴ,Ҳ˿¶,Ϊȴ!ѧ!ϣ(Hilary Erhard Duff)BAD:Ǵȴ־ͲҪѡ̿+,ôԵĽȱݱ¶ſɻСBEST:ȹĵĺð,ɿڴȼǵķ,ҵԼ˷ĵƷ,°빦³Ħ(Drew Barrymore)BAD:±˿ȴ?۵װpassBEST:ɫijȹԽȵⰲȫڸ,ţгȹķ,Ըеߡȡ˹(Selena Gomez)BAD:Ķ̿㲻ȴ׳,ճӾȦBEST:ѡһŵĶ̿,Ǹ,°,ȳƲ١ݡ˹Ƥ˹(Britney Spears)BAD:ϱ¶±¶,ȷֵıȶ̡BEST:Сȵķ֮һǼǿϰӾЧ,ת,¶֮١̴DZرƷ̰˿(Beyonce)BAD:?!ϥͲСȵѨ!!BEST:Ҫôһdzɵ,ҪôͲҪ!ͲɲǴ,taʲôʱл,ҿ°ʱװϵĶٹ(Rihanna)BAD:ϱ¶±¶,ȷֵıȶ̡BEST:ȿȹ,ܹڽϴ׳ĴС,Ŀʽֿ,˫߸Ь,ֽı,ѩIJʵȿˬһġ!ղݸ(Jennifer Lopez)BAD:ȴһҪ,ȱǿ϶,λȲΡBEST:ƷǿӾϵ,Ȳĸ,ܹתƴߵĻпŵΡʲô뷨ݴʦнŶ~Ҫ˽?Ҳӭѯ!רҵݹΪ!רҵݵʦΪƱ,עʱд!,˽ݴʦƷ!>
-fashion ䷢,ɸͷ ع,˧졣 Ȧ˸˵˵:һõķĶֵкܴ˵˵õ˺ܶ˵ͬ,ΪЧġڴʱ,ϽʵķͰɡʵDZ̨,˺þõķ,ȥ̸ͷ,!!!,ȫµԼQuiff һʿľ䷢,1950 Ϳʼ,ͷĨƷ,ȫ,ŻгɷɻͷDZ˺ͷ֮,ʵQuiff ͷ¡ķ˿Ե,㸴ʿ Rockabilly StyleĴ,֮ǰܹPompadour ӱ϶ͷе,ʵȴеСͬPompadour ǽͷȫͷ,Ὣһ,,Quiff Ȼһǽǰͷȫɾ,Ƿ,,Pompadour ִҲ,ͷֱ̡ ͶQuiff !Quiff ͷ븴Ʀ⽫ͷ,Quiff ͷͷ,ʱ⽫ͷȥͷһȥֱ,ͬͷȫ,߸,ķǼĸƦ緶!ķڴϺͶʿͺ,ƽķOffice Look ˧ڰ칫,ҪϻParty ʱ,,츴еDandy Quiff˽ͷQuiff 벨˱ȾQuiff ӵ,ΪĹϵ,ٸ߸,ʱΪͷ̫,ץȥķ˿ͷɢ,Ȼߵ,ȴԸСQuiff ,촩ʳ»ָë,ɢһʸеĩʱ̬,Դůеĺ,,,ҵQuiff ,ҲչԼԸ!QuiffԴ,ͷ,ԵĶԱ,Խŵij,ԱȾԽ,нƽͷij̶,ٽͷ˿ץ,Quiff ƦʿͳQuiff ,Quiff ͱȽϸ!ϵQuiffĿŲ,ϿԶʹӲͦʵĵƷ,Rockabilly ҡĸо,Ƥ͵Mix and MatchƤסϸӳ,°ֱͲţпбȽصѥƤЬ,չèʱ뵱ϵĴζŲʱ̬!
-fashion ɺ,յķ | ̬ȵʱ һĵĵ422״̬,ǴС,Dzշ~ĵ˶һĨյζշװ,ر,Ҳֵһ۾Ϲ·۾װ練Ⱥе㲻,͵ƺûдڸ,Ŀӹ֮,ȴ̲סһ,ƽƽ,ȴ˵ͿǿDz?~վӦûᰮһڰɡ ɫײʮ,ɫӴοչ˿,Ůζ,շİ˽ñ,ǻŶ~ ɫ֯ºɫȹĴҲ̫ÿ˰,ĵŮ,һͶһյζ ţбȹֽһҲ̫ഺ˰,ʹǴɡ,ҲڲסŮС ѡһԻɫĿҲʮֶص뷨,ɫĸt,вոС īɫĴţȿ,ֽĶ̷,һԵշС:22 :160m :45kg һ ֮,ΪȻͬķ,holdס,ȿ,Ь,Ů˵ͷ:30 :155cm :43.5kg һ ɫȹ,v,Ըһ˿,һ˫ɫͷƤЬ,ʹɫҲϢ ȵһķͱͺո,Ů,ҲСɡ:18 :155cm :40kg һ ΪշΧ,ֽҲ,JC:22 :179cm :60kg һ յ,ϳѥ,INĴ,װ,:22 :163cm :45kg һ ţȹɫڴ,ɫΪӦЬ,ഺŮ Ůstyle,һ۾ĶĴ,չ¶,Ķǽ㰡վ,,˹
-fashion ˻˧úϲ£ȣȫ ƽʱܳ˧ŮȦգDZɱˣ˧ˣĵDZ˻ôһȺ˵Ĵڣ ˧úϲ£ȣ ȴɱ ĥƽǣ @YvetteLovesMarkǺǣⲻ˵ǿҵϹͶ ǰ35ǰƬȻ351ţ@Himi-CHMȷ˵ҵܣ@1þ˵úãǰɱ@ЦRegina˵ֱͼ@⿴_ˮڿǷ⣬ԽԽԽԽ@ACoCoҪһҼ~@JcjdnidmdǰӦݱ @ǸҶDz...@bumhaeҪƱ˧Ĺ˹@С֪˵ʲôˡ@־2009~ڣôҲ֪Ϊʲô@ĿиѧܣֻҪݣ֣Ĭ~@౻ֵܣ@Сھ˸ֵӳУʹ˿Ҳö̾Ϣɣ@Уѧڣֻ˵˵˶...@vozeenµҲòóԼѹƬˣУݣŮǰĶ·˼סʱָߣŮŮӣеĽҾҪʱһһ꣬ɡŮħλСෲ¹ϼֵȻǿƲסԼ죡Ҫ˵˧˭˧ңȻϧһ㶼ԲǼ䷽ô죬Ҳܾλ߸˧˧ڡ𣿨һԣԼѱĺʹ@ҹ±...@Ϧекһ̾Ϣӵһһã̫ȣ͵Щֻ֮˵ٸҼ10
-fashion ƷζѪǧԪ5Ʒ ôݴֱŮأһǶġֻܵʱֱѲDZƷЬںĹܶ࣬ŮûΪԼֱĹơƷעʱ䣬Ƕһְѳ֡ò˵ķDZƷǶһּ֡οֱʱ䣬ҲʱСҲһϲŮôСھƷƷһϳڵ㡣ĩŮVery Mojo 2015ڷVery MojoֵǹϵòVery Mojoǣǵʲô̶ȣ϶ֽţ÷ۺɫϵŮʮ㡣12λãеĿʽСǡСǣֻһemojiЦŮǵĻС˼ϵıﶼһСForever youngWork hard and dream bigƼʵҲʦƵ塣ụ̋·ñԼ顣Very MojoһȤĶŮܶ࣬ǿɰġкܶ춼ԪġǣVery MojoҲĵطIJֱ̣50mˮܣҲ˵ճˮȫû⣬ֱϴҲ¡ҲѡǿŮ֮ҲϽרҵ̬ȡŬȻԼƤѤöʣϼԸݽ黻ء۸Ҳ1000RMBңѧϰѧֻչıҵҲ£ԼδܣҪһһӡ¸Olivia Burton ˵ꡰŮһλӢɭŮOlivia Burton2012شƷƣ¶˷OBϲڱпգ־Ļ̣͵ɫ¶˵ͼϵֱŮһǾµġ̣ѻ3DģһСҪܻĿתһء㿴λɭŮȻӦÿܶҪһѻڼŮܻɭŮĻ滭ϸѾжáСϲҵ۷̡꣬͵С۷ѾΪʱ³裬Gucciǰ۷졣ʱӵд۷䣬һֻС۷Լʱ䡣OBзοʽ·һĸоʺӵжԵıһŮ۸1k~2k֮䡣СҪΪԼһЩСʱЩɰʲҲԼŬֵõġThe Horse The Horse֣ƷƣСΪһmanֱƷơTHȫ棬òСTHϵиᣬȦӣ۱õõ𡣿ΪTHһԷԳTHҲƫԷClassicϵУϵк˼ϻСС̡stoneϵйҲ˵ideaɫ̣ȴǴʯƳɣ˵Ǿ侭ʱ֮ Less is more.TH˫Уһӣۣһ̣dzǵɫƤѥƷƣԱõƤ϶DZȽϳɫġTHȷʵܻɫ+ڱ̣+رȲ˵ײĺѣҪǣɫҪҪôǵģTHı1000ñҲͿ£ЩֻһĿʱУһЩֱԽԽãҲԽԽϧŷPrisma ֪Prisma˻治ࡣԺСƷơΪʲôСĸԸΪcallֻΪͼȦ˷ۡڱ̽쪵ĸŷ硣Pģ1948ʹƱҵˡPһбߣӲʷŮҲпӰ죬ƫýѴҲһ㲻Υ͡PrismaƺvintageֱھУܶʽŨĸŷ顣˫ۻȻǰְֵľֱžʱģ¿ClassicƺٴʮҲʱϲPrismaŮˣ϶ǸְǿˡɫP£Ҳǿҹ̴۽ûдģPһܹӣ۸Ҳֻ1k~2k֮䡣һϲŷĿŮҲҵwatchмԼAuteur AuteurһԷֱƷơAҵλʦרעӽлȡУֱ䣬Լ̬֡AиקϵСmoonlight¹⡣óĶӡһ̶ɵİͼԢΪ档¹Ϊֱϸգ֮£һ¹֮СƼʵȴ˺ܶЩԼmoonlightAuteurֱǽΪ3.9mmҲֵó۵ġʵʵڵģԼAһֱϸڴ⡣ RevolutionϵУȦúľƳɣÿһֻжһأAuteurرÿĻϵСMementoMementoԴʽǿԿʱҲƷɫľƤǿȺԶܺáĵAһṩַֻãֱָͨصĸ˷װҲǼģһ顣ϲֱյʽСִķĵֱ۸Dz1k~2k֮䡣ƾֹȤļԼи̫ʺеġˡ2030꣬ҲۻרĶʱӡǣúʱָߣ5Ըʱǰݵ ʱŻݣ2100Ԫ- - - ԱԿ - - - ƣBeautifulWatchֻԱ ѯIDTwippoGirl END
-fashion ΧǧϹ3ɫٴеģ ԽԽ䣬ŶʵʵġȻĶ࣬ΪŮһҪƯΧҪʱֲʡ궬еɫٴʱУһҪһɫΧһۿΧӦһ˰ɣҶ֪ɫĿɫΧȻһɣΧŲתһȦܺϵΧܿɰƤΧɴһţԵرСɫΧɫĺΧɫ֯ĺڻɫ䣬ȫΧȦϵڲϣĻһ룬ůءֺʵΧһȦȦѵķʽȴֿΧϡůԲ˵ῴȥζ˫ſۿɴ´íЬdzɫĺΧȫΧdzůʱСɫΧɫΧɫٴģɫdzƵĺɫܴʸСɫΧɫ䣬ȫڲdzͶȲͬΧʹ£ͷֳΣܾơ
-fashion 촩Ųϯ侫࣡ ӦöİСеʱһ̲ƬϴˣΪijȽ崿ҶʼΪ̲ãǿϲһкܴķҲ˺ܶ˵ףȻһֱ˳˳ˮոգһɫμӻ侫ࡣһʵʹijе˼ұϾѾΪ˼ӣˣ˵Ҳûʲôʵġ⣬ɫȹӣϻױ˶Ǻܵ;µģ쾭һЩϣȻСĺ̬ܶԼķʽһ˳졣ƽʱʱҲͬСźܴIJ͵ǵУܶ˶ֻ֦չ·ȽĴ硣һëصףʵ͵ͬѧǺٴģΪǵӡУֻ30ϵŮŻᴩɣΪҪȥμһЩȽϸ߶˵Ļ飬ôҲôֳ?ܹʹѧʱǷֲģѧʱھѾԼˣϴѧʱͣźɫװɫоҲģġҪףͬѧܹҸһֵ֪ҪвŻŮԣִڶⶼŮϣܹȥǾDzǺܺÿ?
-fashion ·ؼҾͲԾ?ԭܳڵijмģ ͼƬԴ: Chris Taylor PicturesӢִѧյһָ,ùIJָ߽ʱװƷʹõļģص,еݵùˡʱװģǶݵò,ⲻģ,ڵ̳еģģ͡,Ӣִѧһʳʧ֢ѧ顰Journal of Eating Disordersʾ,Ӣ߽ʱװƷƵչʾļģ,ͬһǰ,Աȳ˵ıнϴ⡣õ鷢,ɼ32ŮԼģصĹ,ԼģȻ10,ֻһ϶ΪݡҪԼģصĶڡ׳ˡԱġʵģ,пܸߴDZڵIJӰ졣ķߡִѧоϵEric RobinsonڶBBC,ݵŮԼģػ߶Լʶ,շȺձڵʶʳʧ֢ڹ׳Լģ,߶ԼĵIJ,ӶӦôڵûƷƺԸ뵽,Eric RobinsonںŶԱֻܿӾĿͼIJʽóϽۡװۻʹõļģصѾǵһܵˡEric Robinson˵,1992,һƵ19301960ļģεĵ,óĽۺͽ졪õ黹ָ,һʵŮԵ,Ҫͬļģһ,ô¾ʧͣĿܡ2015,ΪLaura Berry ŮԹ˿ԼFacebook˺Ϸ,TOPSHOPеļģض,ʵյ߲ԼԶ,ͬ·ЧԶﲻڵº,TOPSHOPķ˱ʾ,ƷʹõļģصȷǻӢŮװߴ8Ļ,Ķ(Laura BerryĿ,Щų8ļģصʵֻ6С),ԭģɲάƳ,Ϊ˷㹤ԱзװѶĵ,TOPSHOPʾδٲɹͬͼģ,˴ĸӰ˿͵Ǹȥ,Ӣٻ˾DebenhamsӢ16ļģ,ĿľǸڹ˿ʵӾרҵ,·ĶԭġءšAPPھ:ͼƬ,鿴һλйŮʱװ̬CoachΪһݳƷ?ɶǵѾZara˳Ԥ 㲻Դ·?ǿ ʲôǿʼ¹עThe North Face?
-fashion ˵ܶĺÿ ҹIJ! ܶС㻹,ϷݳԼС椷,ҲԼζΡеıĿ,һġʧֶζ,,ܶϷ趼ϲ,ֹڴ,ÿο,νĿⶼŵ鱦ŲһͿ鱦μνǰЩ컹,֪ܶϡ,ҡĹô?˵ܶ?ô,ֲûвμӹĿ!˵ܶ³?ô,֮ǰͳŮ!ֱĿ,ܶ꽫һġʧµζ,νŶ!Ȼ֪ĩġǾû,ܶһɤùǼѵݲôġʧԭͨ,ܶ·չһζ,ú!ɫȹ,Ѭױ,ÿһϸڶμνְݵ鱦!ϴζֳŮʱ,ҲһϮɫȹ,ҲDzԳƵĶ,Ҳͬ˾һ!һ:ܶ鱦ôԴôÿֲ?ʵڡŵʱ,ܶѾö˼νĿ⡣͵ĽڶϱճеߵĴҲӷ,С龫ֵĶȤ,ֱҪ100ֵϲ!鱦 Ȼܶ鱦ǷŮǵƵ,ܰ鱦ԼζŮ˲ŸȤ,ܶС൱,Ǻ̺Ҫ,鱦ȻԼstyleϯйӰЭ2016Ƚ佱ʱܶѡײɫ,鱦ѡѡ貵Ķͽָɴ䡣CHAUMET Josphineϵ鱦,ŸбŶ!24챱ѧӰڱĻʽ,ܶͬѡ˼ײɫ,鱦ҲͬˡּͬԼƵChopard Ice CubeϵнָۼChopardHappy Dreamsϵ,ϵChopard鱦ϵж,㻹˵,Щŵܶ귴ʵӰ,Oscar de la RentaChopard鱦Ĵá塱һ,Լһ!VɴȹͶ,ܶСŮɹ!ʱԪһҲݹܶ鱦,ʱԪؿνһҲûԳƵ鱦,˺öchoker似Ҳһֱ,ͯȤûŹ,νһ˵Գ鱦˴ܶ꾿жమԳƵ鱦,˵Ҫ˵ҹ!ⲻ,һ뻹鱦ϴˡ̡֮һһϷMFPĶܶҪԳƵĴеˡͬMFPĶС硱ܶꡣHoopһֱԴŸ,ܶIJԳƴ¸˵ԵСȻ,ҲһһС˫ԲͷֲҲǵŮ鱦زٵ鱦Ԫ֮һ,wuliܶȻҲ,˼Ȼѡ˲ԳƵĴ,Miu MiuĶ൱ɹ,ɫʵһ⡣chokerȻ⼸chokerһֱ,Ҹ·ʱֿǷԼchoker moment,choker滨,϶gigi֮һҲܶСӡChlo׳ܶת,Ϻ;ϵ鱦Ȼʱֵû˭!Alexander WangĶChinchinchoker,˫ʵĻ,ֻһ׳װ,ҲȻʧȤνѾᵽ鱦,ܶ겢ڶϼӿ,ʱָҲһŽ˵صchoker,ܶchokerʽҲʮҪ,һעͻᱻ»ϤܶСһӡ,ٹҲҪ鹦ӳֵchoker˰!ԵchokerɫϽ˽ɫ,˰ƺͱʯϸ,ٱ鶼塣鱦Ӱϲ㡷ܶ,ȹ黨ɹ(ȻҪ)ϸܶϵͶŷ,QeelinС鱦ȸʮ,Ǽ˲ԳƵĴһͷ,һǿ»ȫ,ʵڸ˼ʱֵʽҲܶϵķ羰֮һ,Ҷϸȹɫ,ɵܶҲholdסTuleste¶APM Monacochokerһ,ܶһ˿Ůʽ,,ÿ㿴,ܶ굽ǿʲô,ôÿץӵ˰ٿļ,ѡ鱦ԼӵԼķҪҲ,ʲôܶ,²ǿ鱦
-fashion ﴩʲô?3ٲ! Ŀ·ʱ,ѧ,ʱд!һijô,翪^ʱִģʽ,Щ^Ʒʹ´似ɡſѧĵ,ҲĽ,ﵥƷҲ,൫ô,ϾһǮһѲʵĵƷ!һһЩĽijֵļƷ,ûҪĸϽԼ嵥,ѧҪĸıԼ! Ǵ^·,ÿڶٴڴԡܶŮҲ˳,õƷˡֲ,߷ֿ,ԼȻģСЬʺ㡣ȿʱ,,ĸ߷,Դѷ硣ɳ,ӭľһԸӦĸй顣ν,Űɫͻɫп,ˬ,Լ,ͷŮʮ㡣ٴƷӵͬȿ,ǿԴǿ߱,ӳºţг,СñϺɫī,dzƯ,ƽЬokѡӡ黨߲ij,츴ŷѳĴ,ӳģǶϲ˽͡ѡոպ,·绹ܷɹʱ״,һЩԴסЬӳȷĴʽȹװ+˶Ь,ÿƽʱ̫߸Ь,ӦƽĹϵ,ϲ̤̤ʵʵƽЬЬ,ʱ,ֿɶ֮ǰƹһ:ڷЬ,н֢,ǿŷĵ,ķЬôfeel...һҵİЬȥĨҡһ,ʱ,ɡVans˶Ƶľ䡣İЬԦƸȹװʽװȹ˸ġաȹװ,ҪڲͬĻ,ѡһ˫˶ЬͺܺÿˡҲMix and Matchڰ!Ըʱֵʱȹװ,ϳưЬ֮,Ը,ͷԷ硣СռǺǿ,֯Ըнȹ黨ѩȹ,һгȫ㶨Converse߰Ь,һֱdzߵһ겻ľͼLogoһʱеĻˡЬ⼸ȶDZȽϸߵһ,ƪ·Ƕ˫Ьٴ˵Ьٴһ㶼Ϊ,黨Ů͵ĻƤ¿˧͵,ȫHoldס!ô+ʱ֡ӡЬļµĦǸ,üҲܺһʱ졣ԡͷԡһЬ,,ϸŮԵƷʱ,Ļôо:Ҷʱе漰Ļ̫Ƿȱ!ԭһ֡&ʱ֡ĴҲܶ˻ѡĵƷ!ò˵ĺ,ѧʱڿʼͽǵ¹,Ҳܼ,ʵ־,á¦ץ,ɫ´ţж̿,ʮ㡣ޱɫµġʧ١,ϸֱ,!ݻĺڰɫ,ɫ´ɫñԼСЬ,ȳݽڴµĴDzٵ,·ʱɫ´䱪ƶȹ,ɫ֮ǰFenty x Pumaɫñ,GivenchyСЬ,¼ơ֮ӡձ,ͷ´ţпҲһʱ!һ㶼ţж̿ȹ,Եøഺɴࡰʧ١,¶ȡѡ¿Ѵ!ʵţпһʺÿ˾ܰ,ϸ߸Ьܺʱ֮֡䡣
-fashion ЩŮǴƷζôأ찮˳Ҳ۾ ԽԽˣػص½ǸŮѾʼڻеŮѾ֮ˣ¶ôıˣɵС贵һô¶֮⣬ûʲôˡСѾ˺üıˣô~ǵСתʱȷʵһأijҲϹ۾ˣеǴܰ·أĺ붼εЦлĺν࣬һĴеˣɫ¾ȻһƺɫСƤȹĴеأŵһ˫ɫƤЬԵóͻأģһţеװ翴ҲǺ˳أǴѡ˵Ʒܷӡ찮һװе˴۾ɫ˵ĸоеһֻ˳棡Ƥ㴩ҲǺĦˣĸое̫ǰ˵Сеܲˣô϶ů͵IJҪҪģϾë̺ˣ
-fashion ˴ʲô·ÿ ˴ʲôɫ· Anne Hathaway NY¼ABC̨ 'The View'ĿĽ,ɫɴ´ɫ黨ȹ,ϵİɫͷ߸ЬչһȻĸЬƷ걦̬֮İԽз,NYõ⡣зδ䡱ע!ƼĶ>>>9,8ټ!!!>>>ŮԶҪԭ!>>>æ,Ҳں>>>ȷ㻹...ٳ>>>ϲ·ĸϽ,!!
-fashion ν30Ϊ... ʱװܿĻڶʱлѾٰ죬ûDZúæµֽȻϣԻLookΪϺ˶װʮܳ裬˭Ĵʱ֣֮Ըѡɣ2017910ձĻϱμBAZAARǴҹ뾩СڶñȽ⣬͵·ڻѱǵˡװʱ֡ĵڶսϸɲʼղڴУ͵Сڼже㲻ϰߣʵҲеӡ賾ֳϣǵòˡӡ賾201799ձļӳñ£Vetements Champion֥&ƽ20179³ڻִŵ (Goyard) ʮĶǴǣС֣֥ƽϷģķ201797ձϱܵ͵ĬںгIJ봩Сν201795ϺĺνԽԽˣʳɹıøοǺƴڽŶȥ30ҲΪԬȪ201798ձյԬȪñۣʳ+ţпLookµ~ԬȪһ˽Ҳֲ̫۵LookɫŵշԬȪ201797ϺŻij³ԥ201797Ϻ³ԥ˷ƷҲʼң+˶㴩쳣ĺÿ⣬ҪDzѡŶ~³ԥ201798Ϻ201798ձĺɫȹY'sƽЬMartiniano̫ų (Gucci) ݴڵLookʵĴл¶ϸԾװϿ¿ҲȻס2017910ձģǰ2018ŦԼʱװȫƷ˸ (Michael Kors) ǰŦԼʱװܿĴݻߵĹƣȫMichael KorsƷ˶LookԼĴϸ˫ˮۼҾͮ201799ڻӡTʥ (Saint Laurent) ˶Ьadidas Originals Pharrell Williamsζ (Chanel) ѼñSMFKĹͮĺ¡ڿгƣTǵĺ˶ЬȾɫǵ㾦֮ʣóƵĺڵLookþʶ߲θСɺ201798ϺܱȽæµɺ蹱Look䶼ǿߵļ磬ױ£̬ʡɺ201796ձСS-201795ձСSֱͲ͵ñȹɫ˶ЬִȤ̫ (Mickey Mouse) ζϸڣˬҲʧСS빫ʱצγԱȣٽ״̬ԺáElla-¼201794ձĴǰڡϱSȤ˵ManEllaִܳԷװ᳤ģͺŮˡ20179³ڻģͬƷƤЬЬ+ų (Gucci) ̫ʥ (Saint Laurent) һö䡱Elvaڰ֣¿ϼԼˬЬ̫̫Over20179³ڻĺ201795ձĸElvaһѡ˰װĻк룬Ĵ˶磬촩òԹѵ201794ձӡT˼ (Stussy) ˶ЬͿ (Nike) Cortezñ99%isT̨սѡѡ˰T+ţп겻ʱϣӡƶԪ볱УԲʧ˧Сű̳201794ձڻͬҪȥϷɻű̳˾ȻײЬˣôɵȻҪͬһ»ű̳201794ձģӡT (Chiara Ferragni) ˶ЬͿ (Nike) Cortez201796ձĵOff-WhiteʿJolinԲúôµķʽϣȿ㣬ס2017910ձĸӡʿ׳ɽ (Alexander McQueen) ϥѥάС (Gianvito Rossi) ˫ζ (Chanel) GabrielleϵаϷɻʱJolinúÒױһ¾ͳˡרץͣҲԸеʧLookϣֻǿijѥСӵ10˵̫Jolin¼λҲͬСУغ20179³ɶļпˣ·סLV (Louis Vuitton) غҹɶĻȶ̡201798ջģǰȹڸưȹ (Balenciaga) ƽЬ˹ͼءΤ (Stuart Weitzman) ͨɣķ (Thom Browne) ɫñSeiCarinaYϰһӵиϸڵĵƷϣڷԵòײࡣ20179³ţף˿ (Stella McCartney) ѥ (Hermes) ִϰ (Dior) Lady DiorñPeaceminusoneĸһʧٴ20179³ܶ201799ձģɰķ˹صع˶ףꡰĻʽ (Opening Ceremony) ˶ЬͿ (Nike) Flyknit Racer Multicolor˫ (Burberry)ñChampionܶͦĵģɸ˶LookһһЧͬϲűҲˣܶ°Ͷһ̣˵㡶вʱΪϤ˵ġܶ2017910ձģǰϺƴɫ˶ףJulia Seemann 2017ﶬϵаT+LeggingͿ (Nike) ָЬе˹ (Tod's) ӡࣺAlmond RocksĪ (Marc Jacobs) ñLifeAfter Life x Mao Mao˵СӴǵ˽ЩŮǵĽģ20179³ǽģվñ£ά (Vetements) ˶Ь˼ (Celine) ࣺAder ErrorOff-WhiteñBalenciaga ColetteҦ2017910ձ98μ201799ձģ̩ȻعӡT+˶㣺Palm Angels˶Ь·סLV (Louis Vuitton) 2017910ձģǰ̩ԲӡȹParoshѥ˹ͼءΤ (Stuart Weitzman) ִ+̫ʥ (Saint Laurent) ѩܽ201795Ϻij¶201794ձŷ201794ձӡTYohanixѥVetements Dr. Martensɫ˫ζ (Chanel) ѼñVetementsŷ201795ձŷ2017910ձOversizeT+ִϣ (Givenchy) ˶ѥ (Balenciaga) Ÿ201799ձİζ (Chanel) GabrielleϵŸ2017910ձԬ201798ձĸӡTϰ (Dior) ţȿ㣺Marques' Almeida˶Ь (Reebok) ų (Gucci) ۾JINNNNԬ201799ջģϺǰӡT˿ (Stella McCartney) ˶Ь (Reebok) ִ˹ (Valextra) ۾JINNNN20179³Ĵƽ֯+Ь+ (Burberry)̷201796ձ201795ձTų (Gucci) ִϰ (Dior) Lady Diorϵƶ20179³¶£Aniracţп㣺RatָЬų (Gucci) è (Loewe) Ѽñ (Balenciaga) ͼƬԶIC201794ջģɱǰϺͼƬĶǽ Nike Nicholas Kirkwood ӡT (Balenciaga) BVLGARI Nicholas Kirkwoodϵ˶ЬͿ (Nike) Air Vapormax201794ջģɱǰϺ201795Ϻ201795ձ201796ǽģϺվ£DueplayϦ˽ӡ˶ЬRevenge Storm201797ձ201798ϺķɫTų (Gucci) 201796ջģϺǰݻɫ֯DazzleTͿ (Nike) ţж̿㣺Free Peopleɫ˶ЬFenty Pumaޢ (Chloe) DrewϵѼñBalenciaga Colette201796ϺģǰݳTͿ (Nike) ţж̿㣺Free Peopleɫ˶ЬFenty Pumaޢ (Chloe) DrewϵѼñBalenciaga Colette20179³֯֯ų (Gucci) ɫTMajeЬ (Converse) ų (Gucci) Ѽñ (Balenciaga) γ201795Ϻĺɫ£ (Balenciaga) 2017ﶬϵСЬʥ (Saint Laurent) ζ (Chanel) γ2017910Ϻӱ201794ǽģϺŸվܱʳ201797ձĪ201798Ϻëͮ2017910ձijŮǣǵijLookҲ£ѧ201798ϺŻģǰӡñ£iceberg201797Ϻģǰʻñףά (Vetements) ӡTĪ (Marc Jacobs) ˶ЬHogan2017910ձ201799ձź2017910ջģϺǰݳLouis Vuitton Supremeţп㣺ʥ (Saint Laurent) ˶Ь·סLV (Louis Vuitton) 201798ջģɱǰϺĸӡTAnti Social Social Club˶ЬͿ (Nike) Air Vapor MaxִLouis Vuitton Supreme2017910ϺִLouis Vuitton Supremeű2017910ձ2017910ձ201794ձİTXander Zhou˶ЬPUMAְ (Balenciaga) ˸201798ϺŻĺܻǵĽĴžЩϲԬȪɺ衢СSǼΪļ͡أĶԭġ 鿴wapվʱдdzһʱգ
-fashion Աģ42ձŮװƷ嵥 | ղ ߣ׳ ȨתŹںţ׳IDyanzaitashuδɣתء ֵϲĴֲݻ 42è콢ձŮװƷƣ˵ĿǰȫˣдоҪڳ𣩡ƷƷµͷȺܴ۸ҲӼʮԪǧԪȣûϲġ еĵֻΪ˷ҽ̣ûдû~ûӵģҿֱԱƷҵ~ ĩһҵĶ־飬~ Mark Styler ձĴŮװ֮һĿǰ Ungrid Evris Emoda 15Ʒơ Mark Styler èһƷƼϵRUNWAY channel Ŀǰפе9Ʒơ 128-1800rmb Ϣ rnCr0Vcun2t ֻԱ ȫʣձֱʡԼҪö࣬ҲȴҪб֤ 4ƷԼè콢꣬Ʒƾҵ Ungrid ʽ | | ţ 199-1699rmb Ʒ Ungrid ˼ǡûбһԵУԼÿľͺãأ ȻձƷƣߵʽз磬Ҳ۵IJǷ ˮϴţеƷ Ungrid ~ MURUA Ħ | 129-1499rmb Murua ϵݶԭӴ06꣬ٷƷ˼ڼǿŮҲԿɰķΣ۸˵ ʦƫɫϵ۴ĻﶬῴɫϵƷҲΪ Murua Ķ Juetie | ͷ 369-1299rmb ƷһԽûʦ Ami & Aya ģּ Mix Girl ǻ ԽͷΪںҡԼŮ硣йɵĸƳҲʮ˿ȹӿ˷ļпˣԭһݰɵĸо Evris ͷ | | ʱ 399-1199rmb Evris ϲͷԪ븴ŷںһ𣬴ȴķ ȫʽС£СӦǸŮᰮϵƷơ MASH MASH Ŀǰ9Ʒƣè5Ʒƣ Snidel | | Ů 228-3280 rmb ᵽϵ磬 Snidel ӦõһƷƣڰռձ־ҳ档 ҲӰӾͷϲ̸Ӵľ ʯԭڡУŮSnidel ҲʵܶΡ ﶬ¿Ǹ˿黨ԪأԼλɴƲʡ Lily Brown | | 222-2700rmb Snidel Lily Brown ʱɵɵֲܵ˵ Lily Brown ţлһ˿ԣûôߡ ײɫͦ书ġ Fray I.D Լ | ͨ | 258 -3560rmb Fray I.D ƫ죬ʽʺͨڡ ö䣬dzʵһЩصСƣͨװô Mila Owen | ͨ | 169-2669rmb Mila Owen MASH ϺȤźƷƣ2014꣬һסŦԼĽõΪС ƷȻûйװΣں˽ͷСŮζ˶ȶԪء۱ Fray I.D ԵһЩָʸлĺѡ Gelato Pique | Ů | Ҿ 54-700rmb MASH רҾӷƷƣǡǵ㡹ɰ磬ȵַڻ Gelato Pique DZ˼ҵ˯¾һܡ Gelato Pique ɫܱ裬ܰϣָҲܺá Collectpoint Collectpoint ADASTRIA ƷƼϵ꣬2009йĿǰ3ŮװƷƣ۸ӼʮԪǧԪңԼ۱Ⱥܸߡ LOWRYS FARM | Լ | 44-1199rmb Heatherich ǰ | | Ů 59-1299rmb JEANASiS ֪ | ߶ | ʱ 74-3299rmb Onward Onward ձĹʱй˾20ŮװƷƣèϿһ콢 Onward Crosset Ŀǰפ14Ʒơ 嶨λƫŮиλƷƶΪνϵơ ʽΪŵɫŵ͵ 80-8000rmb Ϣ8PU40VVTs4H Rosebullet ICB 23Ʒƣ ONWARD CROSSE è콢иԶ콢ֱ꣬Ʒƾҵ Rosebullet | Ʒ | 39-1639 rmb Rosebullet һӲ̫ȶƷƣ콢ֵĿʽէ֮·ƿɳ£ϸҲԳһġ 23 | ׯ | 96-7560rmb 23Զӵ23ġš ICB ְҵ | η | 60-3000rmb ICB Ӱ칫߳ʱָСܵձְҵŮԵϲ 23ԵøһЩ Ѹ ˵ձװƷƣ϶ܲ¿⡣ٶ¿ƷGu Ҳֵһ ˼ 16ƷƣϤ Moussy SLY ģйƿ120ҵꡣèҲӡ Moussy DENIM | STANDARD | VINTAGE 199-4998rmb MOUSSY һʼţеƷҵģпIJŮϣƾصƷŮķܵ˹ע ƫŷϵе̶࣬ǺںڿġֵעǣӳеƫdzԽСӲ̫Ѻá SLY Ը | Ʒζ | 224-3009rmb SLY ƷԸˡʱкͻɫʼƣʺеСɧ cool girl ϲõģľӣµŮҲԴŵĶиС CROSS COMPANY CROSS COMPANY ձһŮװţ10װƷơ earth music & ecology ɭŮ | | 68-1350 rmb ϲС·ĹӦö֪ EME ÿһƬĵձӰһա ˵ģҪѿɭϵÿʵһ¡ŮߵķװģǸ߸ݵСŮÿţ̯̾~ E hyphen world gallery Ƥ | | 98-1098rmb E hyphen 1998ĶӲ顣 EME E hyphen ˺ܶྫŹֵĸо Samansa Mos2 | Ȼ | 78-1598rmb Samansa Mos2 ĵԴ1980 һ¼ʱս״̬СŮ Samansa Ϊƽʹ߳Ī˹ƣڼůЦΪϾʱϵ͵һ⣬űֽ㷺 ¸Ⱦ Samansa Mos2 ʱĴʼˣҪһ˰ġůķװƷƵ뷨Ů Samansa Ī˹Ƶij Moscow ɵ Samansa Mos2 Ʒɴ˵ ƷȻԼɫסɫΪ黨˿Ԫأ϶òͬĴȻϣޡ顢˿ëȡ Crisp | | ɭϵ 99-468rmb 2015йƷƶλȺ18-24ŮȻµɭϵɫǴ˿Ԫء Nice Claup ഺ | | 56-998rmb Nice Claup ƫŮϢУȽճҲʡ ϲʹøɫɢഺеš Cocodeal ͨ | | 57-2016rmb Cocodeal ǷdzʺͨڴƷƣ˵ҵ֮һٺ٣ǡô ȿ C ֵƼĵƷ֮һúãŷƷƸʺŮΡ Jill Stuart | Ը | ɰ 144-1992rmb дһˣè Jill Stuart 콢ꡣײⶫֱʡȻͿͼͺˡ ־飺 ƷձĶй6-7ңۼԹ34۵ļ۸ Snidel Lily Brown ڹڶǧƷƣҪԺʵļ۸֣618˫11֮Ա٣һֵ̻ۿȻ3-7ۡ Runway ձֱʵĵ̣ۻϺձһ£ۿҲձһ£Ϻ˰ʻֵּ֣۸ձۺ ɡ׳ԭŹںţyanzaitashu ȨŮۡת Ҷ
-fashion ԴС˽صĸ߸Ь | ̽ ڿŵĵһ,ҾдСĻ,ǻ,˵СȦ,ܶ˵wedding,ܵСӰ졣ȥϺ,СԼĸ߸Ь档߽ȥʱ,ҲΪԼҵЬ,¥,ÿһ㶼,оߵ,ҲҪhigh hills.ȥҪгҲҪԷҪҲҪ緹ʱ,С㴩Ÿ߸ЬһֱڸҰijóԵ,,û,緹,緹,Լ´δ緹ͿʼһԳԳ!ǰԸѽ,ڸ߸ЬԷȿ,Ȼ̲סȥԴ˸߸Ь,û뵽,Դܰ,ܸܶߵЬ,Ͻźط,ҪԼ۱ȸߵĻЬƼ,ƪ̽!Ҵ4·(ɴ+),anyway,wedding shoes ̽꿪ʼ!:߸73Сʱ:߸73Сʱ:ȫ10ŵ(Ϻ,,Ͼ,..п)λ:1280-2599Ԫ:ȫƤ˵:е,Ƹʮĸ߸ЬƷơƽЬ߸Ь,ٵЬϵ,ÿһcollectionĺ,رСϸ,չ˵ûнźŮǡƼǵʵԴ,һ6cm,10cmĸ߶顣Ǹ߸Ьˡ,Դĵ,ҺС㻹ıһֱ,ֱʼ֮ǰ,Ҵҵĸ,һ˫8.6cmĸ߸Ьվ˽Сʱ,Ȼȫû.Ұɫķ,Դ˲ͬϵС73СʱǺܸߵ,ϸµ̽,ٻͷ,ܶʽѾsold outԾĿʽ,,ҪԼʵ,ԱѰҡanyway,Ь,һǽԼԴ,Ըܡɫϵdzο:1280Ԫ:8.6cmʸе˿˺ɫ,װɫ˻ο:1280Ԫ:8.6cmҳ˿,Ϻɫ,оԼĽŶ˲!ǾޱŮο۸:1480Ԫ:6.5cmЬӵĸ,οյļ,Ӳ濴Ը~~dzɫϵɫ,ɫ,ɫ Frejaο۸:1880:8.6cmһ˫ĻЬ,кڰɫ,һЩblingblingΨ Cupidο۸:1680:9.8cm˫ЬرankleIJ,һë͵װλкܶdzɫϵЬӿԴɴblingblingذˮЬˮЬ-Сϵвο۸:2199Ԫ:9.8cmһμ˫Ь,ڵӾ硶,жγֵŮˮЬ˫!ˮЬ˵Ը⡰,ͯһ˫Ь˿ڽ,ִ~~ˮЬϵвο۸:2599Ԫ:9.8cmӿݳϷ˿ӱ˫blingblingˮЬ~еĻЬϵ,Ь,֮ǰڶӵĿ,˿ӱ˫blingblingˮЬ,ЬͿ:ӱ(ҵ,34Ь),̽͵,СⷢһŻȯ,1000100,ֱӸƵԿ,ȻԱAPPͿȡ!ϢO34RZuhQoIRֻԱǿֱɨάעThanks to:ɫ˿ɫɫɴfrom:@INESLʱֹƻױ:@FindMe_SharonӰ:@BNicoGuoǸ߸73СʱṩġKiss The Bride˿~һѡ5λͳ!Ʒͳһĩ,뾡Ȧ
-fashion +ȹ,ʱŮζ! ,Ůѧ~,Ůѧ~쵽,֪һµķ!¼ΪÿذܵĵƷ֮һ,ȹŮζıɱ,ΪʲôԷ+ȹ?ͬķ´䲻ͬʽȹ,ײһʱл˧,ɴ,,Nַлܰ,Ĵ,ôٵǵļӳ?,˧Ůζ?Ů,Сȶ,ǿһ˫ѽ~,ţȹļŮ˵Ҳ֪,ǵŮţжȹŮ?ԲԲ,ŮԵĺչֵ쾡¡ͷļӳ,ŮС?Ҫѷ´áƽ,Щ+ȹӵĴ,Ŷ~+ȹֽᱧԹ:ϲ,,ô?ʱڴҪע,ڴһϮȹ,ıҪ,Ҫһ,ڴһţȹ,Ůʮѽ~˧Ŷ~һminiȹ,ĴȡȹĻͺʺϰֽ~+ϥȹȹ,ϥȹ˿ȡԼ̫Ͳÿֽ,һ¡Ψİȹ,ǺܶŮرĴĵƷ˧ķ´Ʈݵİȹ,ڸĵȱ,ӯ鶯ľ+ȹ+ȹ,ɹСMMҲ,Ҫȹӵĸߡ߸Ьӡһյʱ,·ں,Ͳ÷̫,Holdס+ȹôֱӴһȹOK,һÿȹҲܴп!ʡʱʡʡġ߸ӱƽЬ,Сӵı߸ЬԸơ˧ķ¿Ի˿ȹŮζ,Ь,˧ѥ,Ů˾߸ЬӺ濴,¶һص˿ȹ,ҲǺܺÿʵ̫!ĵ,ŮҪȥһ!Ů!Ůܼҹ ÿ˹ŻȯŶ~ע
-fashion 10ӵķͼ ֺÿǵŮᷢôŮȽŮıͣ˽̳̾ճÿһ㣬ʮŶ~ԼÿִıӣӵķͼƬ⣬µıΨഺ~Ůӱ̷ôۣŮķУDzȱٵһ֣ôʣӱȻҪԼġŮӱ̷ͣӻڷϡŮΪ״Ծ֡ŮܱʲôģΪ¡ͣԺֱӸͷɸУͳᡣŮβ跢ŷŮͣϵͷֱӻƹȥڲĵطɳβ跢ͣͷβ˻һС鷢֣ɰţʺ϶㡣Ů跢ͳͷŮָ跢ͣͷıֱ룬ͷԳţDZرĿʽ˴θǿҡŮβͷεıͣϱߵͷİߵ跢ͣʣͷൽβ裬β̶ʱϱߵͷƵͲһܣڲ̶ŮӷƷΪŲɵŮ˸߸ߵβ֮ڱϳһͷǰɵıӣͷͬв̷Ůӷͨɵӷ˹ͷͣͷֱֳȻǿʼд̷ͣչֳķͿȥʱмˡŮӷƴӲͬķͼƬܹܺõıÿŮͷϷɵЧ˼ֵŮƯУϸڱķơŮӷֻɵŮͣ˵ĸоƯӺ濴̵ͷɵЧŮijʱидڣơŮֱӷƲͬŮӣÿһȥǺֳܺͣŮĸ볱ƣŷŸеķָͣͷ
-fashion ֻһ·,һ! йʱгһĿ·ֹע ƷʱԴ:ȫʱ(vixixi)֯ȹʵ,ů,,dz,ȲٵĵƷ֮һһ֯ȹ,,Ҳdzʡ,һMadam!һƴɫ֯ȹ,,dzʺϸϷɻʱ,һñ,һֻţа,,ҿҲ÷dz϶ѡһ֯ȹ,Ŀʽ,ģ¶,ȡʵƿʽ֯ȹһֱǺܶĴ˵ͷáϥϵȹ,ЬָЬЬ,кܲЧСӵŮҲԸEmmaѧ,ʵ¶Ըߡ֯ȹѡһĿʽ,ߴкõ֯ῴȵ,֯ȹڴ,ֻҪһʱʵ,dzOKɫ֯ȹһ,ѡһʵ,õ,ܸչߡ֯ȹŮζʮ,Ҳůֿ,Ϊ֯ȹֻʺŮʹ,ѥЬҲܷdzСܶ˶֯ȹԶ֮Ϊ̫,Ͼÿ˶гģ,һСı¶ȱͲˡʵ,ѡʽʱѡԵͱ,ȴֶϰ,ѡ°ڿijȹdzɫϵ֯ȹ,ڵĹﶼ¸,Ϊʵ̫!вͿܰԼһͷ,Ȼرõ⡣ҳdzɫ֯ȹӿѡʵ¶,oversizeǸѡϸһ,Ȳ,֯ȹܺܺð,ǧҪǵĽסϻŰ,Ҫץʱ,¶¶ʲô,֯ȹһ㡣СǹڿѽȥɽˮʱҪ˰Լ~
-fashion FendiŮحƱ̲סǮİ ÿһ,İFendiҵBy the way㲨ʿٰտ˸By the way״Fendi2014ﶬT̨,,ŷʽ,Ҳܰٴ,һٳΪFendi˳ĴС,BTWmini sizeİ,ʹŲͬ,mini,Сֻο۸:$1,900,13,000ϸڰСţƤ,õIJɫСëfollowʱеѴŶע,ɫëԪ,оʱȥȼ١FendiҵëŲһ,˳ˮƳ,ë˫ֱ,Զۺ͵,ɲжɵڵļ,ðʵԸǿ!Ч,С㻹ԷſƬЧһ,By the wayıҲԡɱɿ,ͬл,ͬһֻFendiԱַŵϹIJɫëô?ûе¶!,˾õСʾֻЧƱǮרѧбŮһ㶼ĵ米Сܽ±ֻľ֡ ͼƬԴ,Źںšݡ(BLACKCARDLUXURY)ԭתע³,δת
-fashion ﶬʱֵЬ˫ֲòܶ궼ڴ 2017ĺɫر죡ˢBella HadidġҲƵɫûһĴ˻𡣲˲ֺܶͣСĺЬÿܡŽͼʾߵĺѥհӦɢɫŵijƣʲ⣬ұߵĹһȹͬÿԱ֮¼ԦѶȶЩСĴ˺easyСЬ˳ȻΪĺɫƷʲôʱְٴоDzο˧ѥѥһܴѺɨʱװ㳡⣬ɫΪۡͼķͷͼļͷʽʱ֣ԲͷIJҪǣ겻Сƽĺѥ˴࣬ΪѥǰסĿʽƽ̫Ըߡ˻ѡСѥͼСϸͼСָࡣܴѥȥ굽ڣȳһֱûнѥСȺͽԵϸԬúѥ£ȫ鹦ѥӵʱ˰úڰСѥη·~ѥӴʸУͼôõĴºӦظš߱ͶײɫСѥҲɼԦɫɫײۡƤʵѥӽҲܻ𣬸ҿʱƷƶгɫײСѥӡװԵ֪ŮЩѡɫһСѥ临ŸƸһָЬһĵָЬʹţװɫָЬַҲԼƤʵƷ˧ᴩSienna MillerúָЬƴë£ʵ㡣ɫֽԸЩµĺӦҲܼӷŶ~ɫָЬӴҲLeandra MedineʾףÿжصǻָЬдָʽģȥЩЬǺɫЬְĴˣͬһЬͣʱۣҲ֤СЬİٴôơλɫЬĴǵAlexa ChungСˣͰһƷԴµ˫ʽȥZaraġȽϲָЬκη䶼дŮϢèЬDiorðèЬˣĸϵ㣬һϼܾͳ˱3-5ϸ̺ϽţèŽż·ڴӦһ˫èЬзȣʵЬٴʵЬɫȻҲܷŹϾһ˫СЬȣʱֻͦԣɫɫСЬٴĿˣͼӢÿɵţװСЬʱֲװʱҲóñӺͱ̰ƤԡɫЬ븴װЧҲÿ
-fashion ӵСµ,Ҳů һĵĵ345켸εվ,ҿʼ,ֿɬ,ִſɬ,Զ,¸з·ֻŻпɬΪʵǻԳɲ,ǽֽǸҵĸо,ijһǻᷢСŮλõСɡ,·λõӡ,ֱҪðһdzɫ,һ˫ɫѥ,¾õķ羰黨oversizetĴŮǿ!һľĸо~ɫȹ,Ӷ,ܷŮʵȿˬ,˸оǺˮƮݵɫ¶ȹ,ıԵЩλЬ,ʵ,ɫķԵֽǰƵȹ,ǺӵĺӦ,һħЩǶһЩ,ƽΪ˺ÿ,ıٻ:˵ѧ˶ĺÿ!˵Ц˶úÿ!˵дֳ˶úÿ!˵ë˶úÿ!˵,ǾͲ˵?һ˵עһġĶŮ!!Ҳþ˵仰վ,ĵת,ǶõĹ
-fashion ɯ90롿֮쵽,Ը嵥? λǴҺ~ӭܵİɯʮ롣8,¼Ϯ,ǷҲĦȭƿʼװ?ڰɯ90߲οֵIJο³һĨҫɫ~ǴSaint LaurentCommes des Garcons,ǴChristopher KaneMichael KorsʦǺչֶɫϲ㲻ԼDisco Ball,Դһ˫ѥһִֻʼChanelProenza SchoulerǺѡޡSaint LaurentCommes des GarconsChristopher KaneMichael Kors CollectionProenza SchoulerChanelҲһűŵĺɫŮ~PradaFendiGivenchyVictoria BeckhamǺɫԶʱġPradaFendiGivenchyҸװȻ㹤װѡCalvin KleinJason WuAlexander Wangƾʱ,ʵ,BalenciagaķºStella McCartneyװȹ,ǰ㽫쵽칫⡣Calvin KleinJason WuAlexander WangBalenciagaStella McCartney㻹òԳڿ͵۹ĺɫƤȹBottega VenetaɫƤȹװ,FendiĺɫƤ,ͲbiubiubiuǹսˡBottega VenetaFendiŮ·ߵĻǵÿëԪӡƷһƷPradaSonia RykielDolce&Gabbana,ͻᷢ,ԼɡDZıˡPradaSonia RykielDolce&Gabbanadz˶зLeisure suitˡֻнĹ;ۻ,һ˶ûʱ,ԶEffortless chicLacoste:ʱаɯʱװ:Ƭ:Yve Xuڱ༭:Yve Xuʵϰ༭:April Xiao¼:Yve XuӾͳ:::毸90Sɯʮ롿ʱ뻷ּ,ɳҲ!ҪŻ!Щֵʦ,ֻ뾲ؿ!עʱаɯѡƵСBazaarVɨ·άעʱаɯBazaarVŹںŹעʱаɯѡѶСʱаɯin
-fashion һ,ʮ!ԽԽ!̫! ͰȹĴû˲صഺʱ~ɾˬij鶯ഺİȹ,ȴ˾áҲഺƤܶ!̿İȹܴഺĸо,ȳ!~һصУʱ!ԴСЬЬ,ҪеŮζ߸ЬҲ˿ûΥ!˳ùùҲж~Ħȵչ¶쾡!AngelababyڷҲѡ˰ȹ,ʮС,۵ÿˮ!һֱԳұʾ˵Blake Lively,ϳȹҲصgossip girlѧʱö̿ļԦЩѹ~ϲķ,ֻҪȹӵijЩıͿ!ѡгİȹ,ϥijȸʺϰ߳ϯ!Ůļس~СӵĹǵҪһ˫߸Ь!°ҲҪȹ~СΪѡ2017,ͬ,ͬ,ϣӱķ!
-fashion ΨһһʱģأʳˤŹ 2017άǵܡʱдѾ1120Ϻ÷˹ĻĻάܳ˾̽T̨ϵʹǣһdzĻ⣬йģ⾪һˤάʧϼҲѣ϶ˤ¼һΪȫģΨһһϺſڡսŴˡάҲܸӵطָһ׳ɵoutfitԼһƯijƫƫɵɴȹռʱˤ˸ʺ¹ʷ²ۣһˤʳˣӵⲻˤŹ֣ȥάʱӵġע⣡ҪΪάʹԼҪܺãıҪҲܸߣҲҪꡣˤһ㶼⡣ϵ֪ˡעλģһⶼûСٲȻѾһרҵģӦе̬ʲôӵģڹԼģȻ̫ãˤҲƬΨһһʱģأҲάˤģزⰡ
-fashion δŮ?⼸С~ ˵Ů,С뵽ľʱŵļλСʻÿοŮǵijִ,˸̾Ľԭ֮,̾С̫̫̫ᴩ,˳㡰͵ʦһǵŮд!贲ݵġŮӳ,Сྭܿ贵·ݻĽԭ֮,¸ʮŮҲСˡAȹǴŮĵijƷ!ȹװ̫ȶ,һһʧȥ~¶ƵĵƷ˵ڽˡ¶ƳȹҲǽdzʱֵƷ,ƮݵŮ绹ҪɴȹŶ~ȹϴڵʵһ˺ѼԦ,ԼҪȽϸ,Ȳ̫ʿܻϱ150cmѩµɫᱡʵŮϢ,ӡ֮±СӡһЩŮζʡʶʹĶѡڴлƵȹʶľƼǶʮ,֮´ĵİɫҶ߳ȹӾдŮζTʽȹҲdz,̷Ϻһһ״˲ͬɫԴѧ,ɫͻӿһЩ~BUY IT!BURBERRY ɫȹNEEDLE & THREAD ɫӡȹFIGUE ȹҲæԼĻŷ~ȱȼֱǰTеĽడ,ÿ״T,Ʒõÿζܳ!ԼĻTȻdz״,ҪʵѡȹDZѧɰиβҲŮر֮һ!ŮһҪмT,ӡ˳ƤСŮҲϡɫװִ˿girlӸСģT!ٴİTȹȻ꾭䴩,ţϵĴƻɫðȹΪʱָ!ݺ˼ҲdzƫT,ƻߺTǷdz״ĵƷţаȹܴʲôdzٴ,Ҷ̿ȳ!ڰײŮ?ǾͮһѳŮĵķɫ!СЬţж̿ʮ㡣BUY IT! MARC JACOBS ɫTGUCCI LOGO TEETHE ELDER STATESMAN ɫTΪٶܹעСƷҲ۵ˮ!,ѳҲСŮ崿Ƥ~ǻٻDzμӿ챾,Ǽİ׳ƤഺͷſӲû̫Ըзʮ㡣żԿһЩ,ţж̿ҲȻƷ~ɫ̫,㾦ǡô!׳ţȻijʵ!ѳ,ַӱɴ!ȵɫôԴ!СֽϿѧܶĴСTIPS!Ʋܱ⽿СĸоŶ~BUY IT!THEORY JOSEPH ɫPROENZA SCHOULER ɫ¶ûŮıﰡ?ᴩС˭ѽ?ԺС~ʶά ѧԺעޱ,ྫ
-fashion PoloŲר,ݾʹúܳʰ ɫ֡´㡱ע,Ӵ!תرԭ,ź:Dressing-show,ȡȨ,תʱעԴID(´,dressshow)֮ǰдƷʱ,дݴŮʮPoloȹ,ҲдѧʮPolo,˶()רƷʱָ:Ͼ,Ҫ֪Poloİ:˵˵Poloȷư~Polo+װ¶ѭĻǸţп,ֻһҪ,Poloƽֱĺ°,ȻúһÿĶԱ:°еƸ,ͨƽֱ,ҲʲӰĻ,Dzԡһԭ,Ĵ////ٵɫ,۹ԹԵıܿ߰ɫ,ڰҲīЩɫüԦ~Ϊ˽ͼԦѶ,ڵĿӽ,²Ҷ˵˰~ҪʱһѿӻɱȽеȿȿ֮,ǿϸڵĥëճ̿ŵȿʽ~ţп,ип,̿,ֻҪע°ںɫ,µɫʵı,һDz:еIJ˶,PoloƥҲܸ,˶+˶Ч:Polo+ȹûʲôڵĿװ,ǴȹиоҲӶ䡣ϥϵĶ̿ȹAֶȹ,dz״ѧԺ,ʺѧŶ~ȽϳְֱͲȹǿȹ,ô˼,忴ĶȹҪŮһЩ,,ʲͬҲиķ仯:ȹڱȽϴһгȹ,ȹгȹ֮,ƫջһ:ƷߵĻ,ײɫҲǷdz,ʱָкǿ,ɫҲ,ĺܿɫ~ܿdzͼ,籪ơ,ԦѶȲһĴPoloȹݴľPoloȹ,ĿʽȻPoloһŮСҶ߲ǰŵ,ּĶװPoloȹ,СЬ,˶Ů,ݴļ,ҲüԦһЩ:,Polo,һر,ǿholdס,ҲǺʺϴ˵Ŷ~һʲô뷨,ӭŶ~ע,һ~
-fashion ƹ˫ʮһ ЩҲҪ ˫ʮһҪˣƽ̨ĴҲסǩԼ˲ͬƷƣҲҲ㣬һ˫ʮһأЩ۸ߣЩ۸ĺʣݹԣܹǵƪʿǻе˳Ϊĸ߶ʿ̼ܳҴʱŻݵdzֵѡ TISSOT ȱͬ˹ţͬҲʿһҰӱƷơͬʱҲע˶ĿװҲ塣ƷƷͬͬҪȥ飬֪ĸIJˣ TISSOTϵԶбTISSOTϵԶбԭۣ3910Ԫ˫ʮһۿۼۣ 3559Ԫ TISSOTʯӢŮԭۣ2300Ԫ˫ʮһۿۼۣ 1955 ԪʿУdzƷ֮һйӵƵۡۺһ廯һ۸6ǧԪ¡оȫʿETAо˹רΪƷŸбȽǿװʺϰʱ MIDOȶϵԶеб ԭۣ6399Ԫ˫ʮһۿۼۣ5999Ԫ (MIDO)ֱ ϵԶб ԭۣ6000Ԫ˫ʮһۿۼۣ3788Ԫ FIYTAǴǴһֱǹеıȽƷƣǴOҲԴƷʱʱУǺܶ˹еѡ֮һ FIYTAǴҶϵԶŮFIYTAǴҶϵԶŮԭۣ3680Ԫ˫ʮһۿۼۣ 2699Ԫ FIYTAǴӰʦϵԶԭۣ4980Ԫ˫ʮһۿۼۣ2909Ԫ DANIEL WELLINGTON DW DWУ˴ˣԴפƽ̨DWҲȲһȫܹ230Ԫۺ82ˣԻǺܺʵġͬ40ʽԼ28Ůʽѡ28ĸŹŵ䡣DW32ʱŮԭۣ1290Ԫ˫ʮһۿۼۣ 1060Ԫ
-fashion h뻭СüữüëŮǻӱ... ȦŮǼÿ춼ӲױⲢÿ˵Ļױţÿ춼䱸ױʦ£Ů˸ûʲôԼױĻᡣҪhữױŲµﻯױʦ~¼عݵഺ磬㷢һ¶ǣԭǵijģ벻ôữױ~ Ȼˢӵ¿ģһhǰ¶ˡ ˼ҿʱвģױ¶Ȼڻ¡ ̺뻭üë൱зġ ȻСü ԭdzhüëӡ¡ ζɵ~ СüСüָüëñȽϴ֣ɫdzһµüë ü͵Ůֻ֪Ҫ㲻ûüëֵĻ粻~ ˶ȥdzأܻǻҲ⡣ӱдԵıӱÿһᵽСü뵽ӱڡɼɼˡı֣ Ҳӱɾһ~ǻĻױʦôء ӱԲüëộԵԲ ְüëôֺڣױʦӱüëϰëֶ ϴκʹ˵ŮƣҲDzửüëһ ܰԼüëôֺڴֺڡ DZӱһľǣٰûԡ ˣ㷢֣ŴҶϸüеģ ܾСüüüͺ͵ıϣǧҪüë̡̫ ӱĺСһޡ üβλнġüʱһ£ڱ۽ǵϾüβλá ϸ㻭һüβüüëĴϸһҪֳ һüͷüбȽϴ֣üβȽϸ һϸḶ́ǰ涼ܴ֣һüβļͻȻϸ Աh̺ȻüβֲֺеĽ鷴ȴüͷ Ļʶ֪üͷüβĴϸ̶ȡȻüβüͷúܴ֡ ɫdzǺܶ˻üëʱ᷸һǰüëɫͿ÷dzȡ üëҪúÿɫdzǹؼ ɫĵطüУʵüβüͷ üͷֻҪһأСµĸоϳ֡ Ȼ㲻ҪΪ֪dzλԺľdzľͺdzȻhữױ˵ĻױһҪȥгЧδء˵õױݾǿȥûڴҶױˡ СtipsüˢǵüʻһͷDZʣһͷüˢüҲһҪӵ üˢüëɫкܺõĵáijλеˣüˢˢ ʵüˢҲеģǾǩɡ üߺֲܶеdzϲһЩüߣٵð㻭üë ЩüһõĵDzÿüëɫdz 㿴hõüëӡ¾֪ˡ һֹü֮ǰҲҽܹӡɫϵdz ΪֻṩһüͣɫԼȥġͱȽϺÿüɫdzˡ üͿںܶϵĽ̶̳ȻһüͣҪһüͿܶ˾ͷdzȥһú ᷢüȻˣüëЧûеȣΪüͿ̫ˡ ˵üͿûǿҵı߿СڻʱһҪķʽȥ~ĸֵholdסСüǧҪŶ~
-fashion 36ݼŮ,ȴ20,Ȧᴩ·! ĿؽġʱQQ1835988ᵽμ,ܶ뵽λݼʵŮԱ,иӡ̵Ľɫضﰮ̷ʶ˧ǿ̵ڷ¡ϻѪĹ1980μǹֵĴͳŮԱ,Ȼ36ȴȻ20,ҡΪȦᴩµŮ֮һ,ʲôʱȦ?ԼΪ,²ֵʱд,ʹʱи~< >ĺڰ,ԵĴ仹˻õŮ,36?°׳ʵİȹ,ֲᵥİ׳ϵɰ,Ե̫ơ< ţп >˶еţпҲԴ»,ϸּĻ,ţпҲ~ɫţп,һ~< +ȹ >ɫɫСȹͷ,ഺ,۵İЬͻԳơTţȹ,ӾЧ,ԵĸװͳСȹ,ʧٴ,Ȳѽ~ͻ,ǰؽ־䵥ƷʱϢܶ˶,ܲսͻƲʱеǰزġᴩ< ˯ϵ >·ʱȦƷ˯ʽܿ鴩ߵʱй,Ϊ͵·״Ҿӷ̫ĸо˯¿,дһζ~˯¿,ʱеƤ~˯¿,ţ,л¶һСԸ< ȿϵ >ȿҲ˽괺ġ߷ȿ,䴿С,벻䶼Сʽȿ,βŵİβ,·,ŶһӰ~ȿӪ쳤Ч,ĨƸĵ÷ò~< ϵ >㱾Ǻķ,ҲΪʱеƷ,˴ϱЧѸͰT,Ĵ,УѧϢ~;ɫС,һñ,Ů~36μӲԼĺƷԦס˸ֲͬķС¶,֪,СŮ~һװ,ԵŮܲ,˧ʮ~ȹƮ,תǸ߹Ů~˭˵40Ů˲Ůһ?μһ,ϲ·,ĺÿƬ,šƯԱĹ,ǸաСͨŮˡȥҴʱ,ʻĹõµÿһ˲䡣Ķά3 ʶͼжά롱ɹעŮǿˡŮǿǿŮѵ(ź:ssvv999)
-fashion 쵰Ů Ů ˵Ůķ֮һͬ͵ŮҲиԵķDZСΪҽܼ쵰ŮijͣôҼ֮ԸŮ쵰Ǽͣӵж쵰ŮκηͶÿ֪쵰ŮĻôŻŮ𣿲֪ûϵ֪쵰ŮͶ쵰˺ÿ¶ûʲôԣͲõƫƣһȻɢٵһӪ߲ԳƸ֮⣬ŮIJչֳڼǰеɵɢ¶һСзֵƷdzʺ϶쵰Ů쵰ͺÿݵзŮˣȵͷͷȻ£ڶʿʼͷо̴ʹ°벿ͷþɣͻŮСɵ°ͣϴ·ϷۣϢ硣˵쵰ܺÿڵҲδáƽڶǰסͷŮ٣һͷС״ijಢסԵŮϸСůɫķɫ˿˱УǸƽ˵ŮһͷٲijβЩУԵúǶأְڶͷеñĶ쵰ľˣǾŻһЦ֪ŮӸСڳֱķȻ£зٺʲˣзʹŮƯĶ쵰ֳʹʵּŮͦıϣ¶ͷҲˬֱֱijɢ£Ȼһ崿Ůһijͣijɢڱҫ·˿Ļȳ鶯Уᱡüʮ㣬ֵĶͷͻŮ٣˿ڶһĶ쵰֣ͷһñ·Ұȼ٣ȻϢ֪Щ쵰ŮijʹǷأȻֻǶ쵰ŮķͣϲʺԼĻǾȥһ~
-fashion Dzǰֱһã ʮй˽رĴоֱĵλʱܴһֱǶô飬͵ͬǮгзںܶҲῼֱ֤˴˵İ顣ӵһֱɲ飬ĽǮʵڣǮ֮õģΪһʱװãоҪԸֻصӰ죬ࡰĻɣβðߵøԶ̶ܴͦϣȡճһϰԼպı״̬֪ͨϰӳֱ֮ǰһҪȸĻоǻеĻʯӢΪʲôô˵ֱɶǾܵģȷʱΪߵĽṹԭȴǾģʯӢоˮʽӱˮƬԡԷһŦ۵ΪƵʿɴ32768ȣеһƵԽԽСΪʲôʯӢʱۼ룬еֻԭеожϵͳΪ˿ṩ봢÷ĵΧڷͨԭôϵֵﵽݵٺָλתĿģжǷΪеоİ취ӣڲǷɻеɣԷΪֱ̹˵ֱʵһҲʡģҪһҪһ£ظûоԹϵģܶೡʤԶ齫ѳΪֱܴŵɱ֮һһڵĴųһȤ¼б۹ųֱܴŵİijĿһλÿ10ӣάζδת֮ƷάĽΪ˴ųIJ죬ӰֱʱȻϵΪųӰʱ˵ǴǶԼҽѧǶȳȱݣԵʱҸһIJԷһжеIJǸֻģ˿֡ݣܴųӰ֢״ڣֱߵĺúõģͻȻͲʹʼ(磬֮ǰΪ10ڣͻȻÿ3ӵ)ȻȻĴųֱӰģƼĸıġųСӣβܾܱ⣿źûķеĴųǿѡԵǹһЩDZڵķأ磺ֻŵ̨̫ʽʼDZ̫ӻȵһеIJƷпܳΪֱܴŵԪס1Ⱥױųԣݽ豸ԱһȻпıѱԹԼֱܴţܶʼ˼úóĽǣñȽϸߣڵﵽ13ϲֱڳڣʵ˽ϵܴ֢״2жֱǷܴţİ취Īֱȥӱά⡣ȻϵҲһȽϼķɹҲοһ״̬õָƽţȻֱָԡС̬ΧתȦÿһȦмǸıֱķλָ붯ˣô˵оIJܴˡ3ֱܴӦô죿˴żɡһıѿȥƼƼһã̽ͼ飬Ǿӱά꣬һ㶼ŵ豸4ȻֱܴţôӱƷΪЩʲô취ڳڣֱֹܴŵİ취һԡ֡Ϊࡣʹְ취Ʒڻоһڿǣֱܵ˴ųӰ죬óžͿɣǶԻоһֱʽʽҲڲٱˣһڿƱؽӱȣͬʱû취оɱʽҪǣֽҲûоܵд¾ʿȻMilgaussڷϵһشͻƣ֮ǰǵһﯺϽɫParachrom˿ʵܴŵIJΪ˿Milgaussո֮ļ۸ĺܸߣٵѲǡ߿ƼҲƽǰĵ齫ʹֱܴţԭԶ齫ƹǿɵģٵȵѾֱܴŹҲɵIJˡŷȴһԴ齫Խ齫ܴŵĻоΪﵽ߷ˮڻоҪʹ˷ǴԲϣҲʹõײʡֱķˮΪڷˮ̸ڶвٱѶΪֱˮһܰʵȻˮûбȻϵģˮĵȼ̶ܴȡڱĶλҪŴӷȥӾʲôģȻDz̫Ҫ100ˮȼֱζſԴDZˮ100ף֮ĸвġ1ȷֱķˮȼһ˵ֱķˮȼעڱ̻ϣXXMףXXAtmѹʾ1Atm10ףԹʱĹ涨ԣעзˮʶõ2ѹ20ˮȼֲԱ¶ȱ20-25϶ȣֱˮʾֹ״̬½еġ2ֱעķˮôɿ𣿲ֱ̫ϵıעֻ˵ԵġһijƷϴʱҵ½ˮͨǿԿбʶΪ300һˮȼԿɼˮڲڲࡣһʼǻΪʹ·ˮȦϻӶˮ˽ʹðĺ...ֻܶΪϴֵˮͷˮѹԣ羭ҪˮıǣȿܷǵDZˮǵԷˮʶӢۡʵֱĽˮѵϰܲɷֵĹϵбŷˮȼճϴˮ裬ʱһֱķˮȦ¶ȵӰӶˮյĽ룬տʼֻˮ֣¶ȶʧһˮҲˣôDz˵ֱˮ֢״Ѿʧȼȥֱıŷ֣ΪˮյIJоҲѱءٴᵽǣоԸֲΪˮԸֵɱǼģˮ⣬ջۣʴij̶ȻԽء3ճαˮˮҪʹӵвˮܵҲ˳ʱˮӴˮ衢ɣЩԹֱȡΪDZˮ;ҪȥѡӾӾмǼǷѾ4ֱˮδǡһˮԿǺɡ磺ڣһȷͷڣͷֹͣȴԺظֱ̣ˮʧȻ취ҲбˣǾǼӿ˷ˮȦϻǼֵȽϸߵֱһСϵͽӱվмͲԣˮ-ˮ-¼ˮҪʱ˶ҲֱоܣֱƷƶ˶ıζʺȥ˶˼ֻһ"˶"ˡǵǰһλѿᰮڹdz̶ȵ˺˯ҲţҲκĹֱϴ⣬ÿܵͷȥһлعʱÿ3룬ڷƫͦģδֹϵڡ֮࣬һ䣺°Ժϲ Իԭڴˡ1˶ӰֱģеֶԶ豸еߵ̶ܴ϶ڰ֣Balance Wheel˿һֵķȶ280315䡣ھ˶ʱ°ڷԼ330ȣͻײڡҲֱάʦ˵Ļֵ̰ڣֱʱͻƫ죬ʱԣھ˶ʱһǵýֱժ¡2ɱ˶һҪô죿ʯӢûȻǷǴɣʯӢѡܻеҲʱϲƵ36000оֱͨƵάֽϺõڣҪ֪оȶɲǽɰ˿˶бܵ˺ҲDzģοиָӵĴϵϵ˿ȵȡǣʯӢоƾֳˣоṹԼҳƵھ˶ܵСģбϷ˵ȥļӶˣŷܽῪƽʱֱĹУ͵豸ӴһȾȥֱķˮܣ˶ʱժժǾǾȥЩ˺ֱľٶϾʱķҵĻԸ---ЩֱļֵȻҲɲصһĹ
-fashion GUCCI̺УֻͿЬ ΪʲôôϲGUCCIΪÿΪΪ⣿룬ȷ˶֪RolexLVһݵλҲǷ˰ͣNBAǴһƶϴǧ֮ѡЩһߴƵԭɣGucci֮˽ǮϿɺʹڸлǸġò˵GucciƷƵıʶȳߣ̵ײɫܾĴڡGucciԴƷƺ˶֮ԨԴڽ̶ϵķ֯˹ɵȫݳƷг֯е50ѸٳΪҵͷ˵Gucciνľ䣬ôǿЩGucciΪˡӭϡгץסЩı䣿 Gucci ͳһ黬껳ȸĹƬʱҾ;е㡰ӭˡ2011 ꣬Gucci Alexander McQueen ĸ˾ PPR չװƷ Volcom ϢһûIJƷ Analog & Gravis Ĵ Mark Oblow ˵ƷƵļıҵϷǰһþߵֻԼҪģڴƷС˾Ϊϲġһ㶼ᡣҪİ滬壬֪ûضƷͨTɵĿӺһ˫ĥĻЬҪȫװ֮ԿΪЩиԵĻֺĻʱװƷƻ˴ѻԪشƣȴԾɲлִԭΪȥӲسһʽӭгƷƣܵͷҵİɣȻGucciIJϺҵ⣬ȰԪصDZչˡ㡱롰¾ȻҲвʧܵİ棺ҲõĴ⣺ȥĶñֱһܶڸϲãҲر Custom ơGucciɫЬҲҵĴǡ˽˵Ķ㣬ɫײȻᱻƵĹ˾NikeΪǴܶ龭ġGucciɫЬNike Air Foamposite Pro GucciнΪɫģž˫Nike Air Foamposite Pro GucciˣЬԡGucciԪΪУĥɰʸеĺɫݲʴЬ壬ɫɫϸڣɫ׳֣͵ͬʱһɹAir Jordan 1 Retro Highʱ䣬2012 ʥΪƳAir Jordan 1 Retro HighҲܶ Sneaker ϷΪGucciɫBlack Sheep x Nike SB Dunk High Premium˵СݳСġGucciɫЬô˫ Black Sheep x Nike SB Dunk High PremiumһܲˡɫƤӡСGucciԵ Monogram ͼϽɫSwoosh/ɫڳġɫЬԼнɫƬװεĺɫףͺˡNike Air Force IINike Air Force II Ȼһֱ²𣬵ҲNikeЬ˫High Premium GucciȫЬ˾µ Laser ͼ۵ĪЬǺ Gucci ɫװμЬNike SB P-ROD 2.5Nike SB P-ROD 2.5 ҲġGucciɫ˺ɫʹЬͼЬ⸽һɫͺɫɫЬUNDEFEATED Nike Air Max 97ϾҪеģըGucciNikeЬ¾ҪˣΪAir Max97Ĵ꣬һɫľЬһ̣Ÿŷ糱ij£Air Max97ҲԽԽôعģɼͷ UNDEFEATED Nike Air Max 97 มUNDEFEATED ھ Air Max 97 ϵƽ뵺ᣬоĺ졢ɫɣЬIJ״Ƥײɫ֣ɫӳֵǩʽ UNDEFEATED Logo ϸڵͬʱҲ˸ЬijǿݡϵĶƴЬںɫӪʸԡƵϣҲ˵һӦ뵽GucciϵκεƷһͬкʱܴͷɫͿ Air Max 97 Dri-Fit ˶࣬ԼӡСProperty of UNDEFEATED͡WORLDWIDE Logo ñ T-Shirt---·ͼƬĶ-ûУ㿴ַϲϲЬ..ĶǸʹģ90%˶̫֪ô£GDһͿѻҾҲʺ㡣-ɹע-
-fashion Ϊʲô㴩߸Ьʹ?ΪЩС㻹֪! ӭϷѧ㴩´䡱Ѷ!δ߸ЬʹС,ÿŮӦ֪!ÿŮĽźѪʷѽ!ЬС:صЬ,ĥ,ʹǼǧʱҲ,Ļʹడ!̴ҼСŰЬĥšнŵĿաЬĥŵط,һǽź,һǴֺࡣ1. ʪëĥŵЬӲλ漸,Ȼÿɵëסŵĵط,ôü,Ьĥŵĵطûƽ,ЬƤʱƽͲĥˡ2.űֽ,һ,մˮ,Ҫ̫ʪ,ҪŶմˮ,ȻŸɵıֽסʪıֽ,ڼŵIJλ,ȻЬܷһϴ,ҹ,Ϳˡ3.Ь̫Сн,ʪëʪ,ЬШŴ,˳ˡ4.Ьڴ֮ǰ,ÿ(ƽʱõҲ)ŸӴIJĨһ㱡,Ь˱ù⻬ĥš1͵4㱾Թö,ЧŶ!Ҳ!ٸܺõСŶ!ղЬСһѽ̵ġЬ,֮ЬеIJ,һ,ͿĿЬӵඡܷġСЬҲԲȵŶ!ЩMMЬ,ЬⲻС,µЬһӡ,ѿġ֮ʲôð취?̴һСС,ָ!ǺɫЬӻ,úɫָ,СĵͿɫЬӱЬ,Ժ,ɫ,ҶָҲй,ЬӿȥƯ!ֻҪͬЬɫָСͿһ±Ь,ЬӾͻÿܶӴ!ɫķЬϴС:ɫķЬʱ䳤˾ͻ,,ķϿ,ϣá1:ʲôϴ,ϴԺЬϾͿһ;2:ֽЬ,ͬʱְһֽ,Ьֽһ;3:ɹ,һԼ2~3Сʱ;4:ֽһ˺,ͻֽᷢ,ЬӱðװġСΪѡ2017,ͬ,ͬ,ϣӱķ!
-fashion ľ˵ԶҪϴţп㣬仰Ķ ʱڵϿ Best Jeans ľ˵ԶҪϴţп㡣ȻҲΪţ֮·νţ취ţвϵȾ䣬ϹؽڻͼDz˽⡰ţҲǰ͡ϴţп㡱ϵһ ϴҪţһһû è롢ѡˮơȲͬɫɫ䡣Щ̣£һϣֻΪ˴һһĿӡôţп㵽Ҫôأ ţĹУܿҳӲɳ˶ΪѲŪԼţпѳЦԷǵĹʵΪţ塣ţпרΪصĿƵĥ ŷһֱǸܻĻȦӣԴŷձõ˷պĻڶȦڵķУ˹ڲŷһĸ˲ͬϸ࣬дڽ̶ܳߵţзΡ ԶţпĹȱȻDzҪġдռһijɽ·ˤµӡҹ滭Ĩϵϣҹҹµġè롱͡ѡ ˵ˣèʲôӣĸλã è룺ڲбµ塣 ѣϥǺµۺۣסϥǺѡ ˮƣխŶѻЬγɵ壬ѻŻˮƵɫ䡣 ţžϴĥ· DzѾĶʼ䵹ţп㿪ʼţˣʵţ£ҲĹⲻϴеģҪһԭţԭţٰ¼Ҫ Ҫһ ȥԭɫţп϶ unwash ͡ onewash ʣĽ;δϴˮһϴˮ Unwash ԭɫţпǰᵽģûоϴˮĥȴţп㡣 Onewash ڳǰԤˮ˽ĹգЩϲ봩Լ·еţп㡣 Cityshop ԭţп 1,465 CNY ԭɫţпм Ounce дΪ oz ˾Դһᾭ oz oz ţп㡣Ҫǵأ϶ԣһ 14.5oz Ƚʺżʿţ˵ԪΪ RALEIGH JONES 12.5 OUNCE 1918 CNY Ҫ ԭţõţвϣʽ֯֯խţвֲ selvedge ţв self edge ˼ֲͻصڱԵλһɫ߲ɫIJߣͨġ Redline ĸɫIJ̶ֱͬڶȡ Ҫ ȾƲϵȾһȻֲȾϣȾϽ Indigofera Tinctoria ľ塣ûκλƵġ ţп㵽òϴ Levi's ִг Chip Bergh ҪϴţпۣȻе㼫ˣһõţп㻹ͦнʲôʱϴʲôϴ Ϊʲôϴ ϴӼţвϵɫʹﲻȻɫЧţϺأϳڲϴһζʱ䲻ϴĿҲΪû¹ˮʧȥԣԱֿԭеĿDzġ ʵϴҲΪţпѽţпΪʲôϽأڱ֯ţвʱɴ߾ͱϽˣǼӹɴǿԣ֯ʱͲжѵڼʱҲӷԼɴﵽţпĶЧѽȥţпϵĽˮⲿʹԭɫţпΪʡ ʲôʱϴ Ƕ˵ԿÿϴһΣƽʱҲҪϺþֲԵſɡһԭɫţڴ 3 º״̶ˣʱͿϴһˡûʯҲϴͷˮ档 ϴ ע⣬ţԲϴ»ϴʹôˮ裬ԡףע㹻ˮžͽõţпŽˮȻѽܶ˻˵ҪŰ״Σںõţпеһ٣õƷƶиߴʮεȾɫգΪţпɫġա ˮʱ⣨ʱȫԭţûţпݸ 2-3 Сʱһˮˮʱóţп㲻Ҫκβݸ 2-3 Сʱȫѽ꽬ͿԿϵάij֣ ɹ ԭɫţпˮóκšɵȹֱӷڹ߸е͵ĵطȻɹüдɹ֮ģҪЩʽӣȻɺѿӡӡɺԭɫţпͿˡ ʵţ ҪĻڣͿԿţпˣԷŴ˶......֮ţпȻɫͻ϶Ϊһͱרţˡ еţ˻ڿڴһЩƤСոһյĦγеɫ䡣 ֲ߰ڿڴֺͿӵĦγɫ䡣
-fashion רעֱ鱦DZĺŵ59ƪԭ£ҪרҵעǡֻһʣҸʲôʣ˭ҪʲôҸȥ»һֱڸʣӺ۽ǶԷϣܽƼ£ʲôСNomosյԭꡭܺѽŷѰɣ˼Ҷʶ ŷϵ̨С2762,600Ą̊́ԼʴʺϣŵСDzͣʣҪʲôʲôֵ⣬ȦиܽᣬڻֵýһҪƷơܽORCPOȻŷѣSwatchŵĵһƷ֪ȹߣԼ۱ҲߣRʿ˵ˣܶһ˵ֱֱӾ뵽ˣCǣ弯ŵֵPٴ ʿˮ 65,900ƷƵIJƷáۺλЩͲ˵ˣҪƷ֪ȹߡһȥ˭ϵóһ䡰ϵóѾ˴˵һɡʱԴһDZ̨ʣҲбһˣSupposeҲеǮˡǴʶƷƿʼġʱҪرƷƵſ۸βͷġһΣŷʲôʲôˣYou are what you wearΪһijȦ㣬ͰԼڻ˽ޡ Heure HϵбƷűԤ˽⣺1ǧ~5ǧԪŷŸǡǴ5ǧ~1ԪȡĦ1~2Ԫ١״ʿNomos̩š2~5Ԫŷѡǡ۶桢顢5~10Ԫʿɺҡʱŵ10~15Ԫꡢյ١ſ˵ޡǿᡢűܶű15Ԫϣᡢʸˡʫ١ٴ˱оٵֻһŵԤ㽨飬ƷƵʵʼ۸䡣ʿ3ԪҲвѡ۸5ԪԹ鵽5Ԫһʸſ۸108ǧԪű15Ԫһ 42,500ԼƷѡŷѻ߿ǵģǾǵ۸ҡԤȷõ2սͿԴӼ۸ӦƷƺͱ ˹˵һεߣڵIJأEsteemҪ˶ϣԼȶλҪ˵ͳɾ͵õijϡ ɺLuminorϵ 33,300ʱԼҪѡֱҪСϵóֲܹҲְϵֱѧֱһܱϰǺڵϰı١ŷѡǡҲͲΪˡ Bulgari Bulgari һĽײԻ˵ԷdzǿһҪԣȻٿԤ㣬ԲûôҪ Ʒ⣬ҪƷƵĴԱнǿгʶȣ˵ͬһȦһ۾ϳ൱һʶҲΪʲôʿˮ˻ʼ罻ýϻȵԭ Happy Diamonds 129,000DZʶԽǿֱԽܻӭгرõıһdzԵġDzָ߱ʶȱBulgari BulgariHeure H̩Ħɸ硢ŷϵСHappy DiamondɺLuminorϵСʿˮ˻ʼϵ밶͡ٴݡȻȫ߱ǰμһݳƷƷᣬ˺ܶ۱Ҿñľңˡ֮ǰǶϲɺ˶𣿡Ϳһֱš VilleretϵСڡڡ˫ʾ 275,500ڵһεĹߣζԱرϡҲСıǩ꿼ѧ־ԸҪѧ汾£ѡȫרҵıҵѧȴ̰ԸԵרҵԺѾΪҵмᣬȴŭ𣺡˭ᱱֵˮɺײ֣ҲʶԼʱˡһźͬڶΣԱԼĸˡѡһЩƷơꡢᡢǿᣬЩƷҵڵλܸߣÿijޣںͷ죬ڹȴҪвŸöʸյ١NomosЩպͬ߳ȴ͵ûѵĵ¹Ʒơ ʸ1815 307,000رм֣ƷƶæǣȴĵĻѡΪйгرлʾйоҲǾرƵġᣬںܳһʱʵıӷּҷģҲ൱áǿᣬеĶƱʦݻֱƷеġһΣ㻹ǿƷƣѡһЩرıͱ磬˶ҵ2.55ȴϲLe BoyϵСҪǻΪʿֻкˮʹشˣÿƷƶвͬϵУԲͬεЩе˲ŻʿʿϵСһϵһֱDZѺӵģ ۸ʿ־ʽȫΡܶ˶ΪʿûбֱȴΨһģĻоѵõؾ˾ϸĴĥչȫµʿƳ֮ҲµĹע ʿ 208,000ŷѵŷѡϵСһϵеԭͱѡŷѲݣҶ50ϵľҽʦٱȣ۸ŷͨҪ߳㻹ѡɵļʱ ŷѲرϵ 133,100ΪDz˹ʹ˱ᣬںͺձ棬Ҳ̳ MARINEϵ5827 283,300ʼֻǴ˰ǰҰһ棬ȴȫJules Audemarsϵ㿴ͬİˡҪ͵Ļòѡˡһ͵ıÿƷƶLogoһ˺ѷֱʲôƷơٴRef.5196ʫٴϵСJules AudemarsϵСAltiplanoϵеſѡ AltiplanoϵвʵĻѡ𡢲ͲҪѡƽõӾϽӽڲ֣вƲ¶ġһΣ㿪ʼ˽ԼԼʹֵۡۡʵϣǶѡ̣Ҳ֪Ĺ̡գᷢչԼʽԼֱʶɸѡҼҪȥDZˮ˻ʼ밶͵IJɫ̫ÿˣÿɫDZˮû⣿ רҵDZˮDZˮ㹻ˣƽʱֳҲٴǾˡһΣǶı ƸɵʱᷢԼڼ۸ôˡƷҲˡ۸ıı˵ĶǿģصDz㹻ϲҪǰһСڣڿʼ豹ˡƸܾһУ濴˿һԴŮݳıҲһܿϡģ˼۸أҲԼƷƵĸֵѡԱúܴˡٴҲAPMӰٴҲAPM˱Ƹǰþƺò̵IJ졣ʿɺй˵ĴϣһֱȨ˵ø·ȫСڵʿɣѾƫִĵزʲôټʲôԼDzϲΪԵñȱ˸Щձʿ֮Т˵ûϲһʿɣ˵ÿһʿɶDzͬζԼĸԡһֱ̼ձľ֣һ¾ˣҲʼҵĸо ѡʿҲһĵֱǸʽѡ㿴ѡƷƵ۹ⲻǼ۸֪ԿʼǺĽʱH.Moser&CieRomain JeromeĶƱʦƷơ ĽʱHeritage 520,000ϲУڻ10ԪҿԿмգزٵҲҪһֻԱ鲻˵ˣרԱһӰԼǰϺμӻ֪ҲǷи֣зܵģľǰ顣ͬģIWCͱķԱ 鳬Ļϵ 34,700ҲкܶϲDZˮȥDZˮʥ֯ȦӻҪDZˮʿĺʹ˻ʼ밶͵ȻѡƽһģʱһֱרҵDZˮܷdzɿҲǷdzõѡ ʱͷDZˮִ Լ17,800 Լ16,500ϲ˶ɵĻרҵһһѡSuuntoأƷרҵ˶ԵġһߣԿŵķű߽ʫٺݪ棨Maki-eֱİߵĻʫLes Cabinotiers¥Celestia Astronomical峬3600ܸӵ֮һ߱23ҪĸӹܡJacob & Coӷ֣ǰСϡ ʫLes Cabinotiers¥ǽʦԿռṹȤArt DecoֱҵReversoǺܺõѡλһĻ˹ٵOPUSϵУ֥صĶӷ֣ƱʦƷMB&FԺܶθڡ˻ʼοӷ֣гӹܵļ൱ǰ ˻ʼϵгοӷ220,500 ʿɣ˰һһ°³ƷƬԴԲ˿Made in Le BrassusŻٵɼ˿Patrick ClairִרҵſģΪʲôôܻӭ֪ ƬԴԲ˿ԿһЩرƿƷҲԽԽѺñйгյԭSKPϵƳֱһֱǻӷֺʱʱ»Ϊ36ʱͨʱĸƣʹ2Ӵʾͨ8λİťͿԷУ յԭԱʱйSKP 201,000ڶƻĵ·ϣûĸƷƱԾˡܣѩƷưͼޡأArturo FuenteϵƳرı̺ͱرѩ̲ͼƷƵıʶ3ֲʸ100ֻ˵ѾԤһˡ ںϸ 230,000ȻиߵĽΡ˽˶Ƶżûôˣ;ҲdzȥάֶһסعʽӢףȥھƣֻ벻롣ǰᵽIJ3ǰʼոͰװʿɣԼľƱ꣬ǷȷҶƱ˰㶨ƶһıڻʱӱǹרʱöƷʽġҪ˽ĻԺ̨ѯ༭MarselС | ӾAllison ͼƬƷƣ磩ϵmarsel.ma@flxh.meȨ˵ĺݾΪԭתں̨ԡڶⳭϮǽ鵽ףɵȨ»4λ̳ʿģ8090˵ӱ鱦Ļָϡ
-fashion | ݡĴɫΧжʱ֣ALL IN ܺãζӭladyﳩΡ| ζ߶߶ |ﶬƷĪӭȽ̸~ʱŮһ̶ֱ߶䣬ֻŲӲţʱƷΧ~̾ţﶬůʱеƷΧˡΧůmaxﶬʺϰ͵İٴŶû˲θؼdzʱʺ𡣸ΪҪǣΧΪŮеҪӴӾġ¡BurberryӰThomas BurberryëΧһⶼůΪӰжճߣЩΧΪļڴĻ䡣 ĸ˲䱻ֵIJ~ΧѡһǾĴɫΧܺܶŮǵϲߵ¼ܴݶڴɫΧֱǰ֣˵ϰȫԱǵ͵ﻹ~ҪΧز֪ôѡԲԣһʱƷζ汸İٴcashmere ΧɡʸСʱֺôȫˣƷνġƽ𡱣ɽ϶ʱΪëһϸܵëٵġᡢůص㣬ϸάرʺϵ䡣ʶ֣ʹзҲʹáѡϣʣȥָгãһˣǺ֡ΧȥʾտգͣȫӰճҲһжûУĺܣΧõı֯ʵźůԺǿijãϲΧıиرůͣëΧƼţֲʧƯںԪأͬʱ˸ʣʱضܴƵĸоΧյĹգŵͬʱ˼ԡմֱÿһúܾϸߣȫءҲŮǿԷĵġҲܲһֺܱܺõĴֱУ㾭Ҳ̵ġ˵ΧظߵһǺɫˡÿһпʽڷ仯ɫΧȴʼһѽεܰٴƷĺɫΧѾΪѡ~ߴ200*70ijһıůɫ13ɫΧǿѡɫϵɫôholdס~һΧ㻻һ飬ʤ10£ɫëΧô·ˣЩôÿΧһҪһһźšͼƬɹʱй˵ͼƬɨ
-fashion KITH x adidas Soccer 2017 ȫϵеƷ ֮ǰ,KITH Ronnie Fieg ѾԼ Ins Ԥеһϵ:KITH x adidas Soccer,еĽȻ˫ɫ ACE 16+ PureControl UltraBOOST ˡ˫Ь³ͱعⲢұڴ,˴ڽӭʽķۡ˵ ACE 16+ PureControl UltraBOOST һЬЬĽ,緢ȥ7,伫Ͳ,ʹÿһɫܵЬԿȵ,˷ KITH 汾жܻӭѾԤˡȻ,ڴ֮ǰ,Ҫһ KITH x adidas SoccerһϵеƵҹŦԼ,ĸ¥,Լĺֲ̲֧ŦԼ Cobras ܵ Flamingos,Խʱպ͵,˸о·ͬһӰƬܹһϵе,Һ˴ӷεЬĵճźʵսĸֵƷ,൱ḻ,Ҳ֪ KITH x adidas Soccer һϵаˡCobras͡Flamingos,ôǾһCobrasⶼЩƷCobrasϵ KITH ŦԼֲ Cobras(Ϊ۾ߡ˼) ,úɫɫɫͻɫΪɫпˡ㡢ñȵȵƷ,־Ե adidas Three Stripes Logo ӡ·ȵط, KITH Logo ศ,ݡ KITH x adidas Soccer COPA Mundial 17 UltraBOOSTCobrasһϵеĽЬȫµĴɫ COPA 17 UltraBOOST,˴ƤƤʺϸ,ȫ BOOST ,ɫġCOPAadidas Logo ԼЬͷеϵеܹͳ,ֱǺڰ˫ɫ,߲˲ͬɫϿǰ KITH غڴġCobrasӶӻյϸڡȻ,Щûʲôر֮,㲻 KITH ҷ۵Ļ KITH x adidas Soccer COPA Mundial Tango TurfԱ²˳,ɫϺɫ,ͬɫ Mundial Tango TR,ɫϼ߱ʶȡ KITH x adidas Soccer Copa 17ȥʽ۵ Copa 17 Ь ACE XϵеƷ,ҲԿǾ Copa Mundial ˴ϵ˫ڽɫ Copa 17 ֮ǰЬɫɫƷ,ôƤЬԼԲЬĴͳסӽ뿴,֮ǰ˵ûʲôر,ƺ?鲼ķͼƺʾ²IJʽ,ֲʿԷˮ?ȻЩǷǰIJ²,ֻеȵõʵ˲ĶۡһһϵСFlamingos(ǡ˼),һϵͬ˼пˡȵƷ,˿˵ KITH ɫĵɫ,˰ɫڽϵ˫ ACE 16+ PureControl UltraBOOST,˵ʽΪ,ˡȥɫļп˺ͳ֮,ճƷлһɫTһɫTпԼһ, ACE 16+ PureControl UltraBOOST ڡFlamingosϵеճϵеƷ,ȻҪһϵеװ,ɫºһ˫ɫͲɫƴӶɵ ACE 17+ PureControl ЬACE 17+ PureControl adidas ACE 17 ϵͬʱҲִһЬ,ͬʱҲΨһһ˫ BOOST ЬЬ,ɼر֮Flamingosϵеһ˫Ь ACE 17 TR1,Ԥ⽫һϵег˳˫֮һ˫ЬɫɫͲԼɫߵĸѵһ൱ͿĵƷ,ƽʱĴŴҲdzۡע,ɫѵ(ڳ?)Ϊһ KITH x adidas Soccer ϵеܻӭķεƷ,ܹ뾡֡ͬΪͳĵɫͻɫ汾,ؿӡ KITH Box Logo Flamingos Logo(һֻ),㷽,ɫ¿ԴһɫɫҲԴһɫɫ;ɫֱӴɫ㼴ɡɫԱҲ̫ɧ,ϻвеļӸ?,ҲҪ,ʱ:,һϵнڱʱ6223, KITH зۡ˵һС,Ҫ̫ʱ˫ ACE 16+ PureControl UltraBOOST ϡǿԿʱеӰԽԽ,ŷĻϵϮĽͷʱ,Դŷ adidas еĵʹ˴ KITH ĺ,Ϊ adidas Soccer 緶ΧڵӰһȫµĴšڻع(ͼƬв鿴)δ֪| New Balance ε,εƷеᡣδ֪|KD10,֪ĺ㲻֪ġδ֪|Converse ִȫ, UNDEFEATED
-fashion ŮһҪѧ5ͣƯ~ µʱѶ,飬ױɣǰ,ȨʱϢʱʦѼȫʱѶȫҶλ߶ʱѶƶý壬רעΪϴĶ顣ÿҪͷЩ˵鷳βʹҴҳˡȻŮ˻ҪԿּͷһҪϿѧͷϱһ仨ʵֻҪ裬β仯ҲֻҪӣüӼһ¡ҪijԭȰβõһξʡµġЩͼСؾŮһҪԿһڶ
-fashion ܶƷնBurberryʹ,㿴Ĵ֮·? ,BurberryٷܶΪƷʹ,ͬʱܶҲΪΪƷεΨһŮ!ͬʱ,ƷƻһܶBurberry ϵŮװ,ɵһʱдƬ,СʹһܶBurberryԨԴ~ʱװ & Ʒƻ˵ܶBurberryԨԴҪӽBurberry ϵзῪʼ,90ܶ겻Ǵ˴δΪƷƹٷΨһйŮ,ǸƷСˡBurberryӢ߶չ,ܶBurberry ϵ,Ƥɰڽ,ܶBurberry 2017ϵ,BurberryױʱƷ꿪ĻɶԡڸոսBurberryϵд,ͬͷſ,Burberryȫ¾ϵ֯ɫTľѥ,ȥʱƤƬͬʱ,ܶ껹Burberry¼װ־,ʱԴʱָMarie Clairę10¿NYLON 10¿üSELF 9¿Madame Figaro4¿Marie Claire6¿OK!ʡ 125ڡVogueMe4ºšGRAZIA288˽´ܶճҲѷ,Burberryʵ,ߵ,BurberryĵƷDZر,ܴԼķBurberry+HouseƴƤThe BannerִBurberry Burberryٰʹ+ʻ˶+The DK88ִBurberryб˶Burberryʾ+AƴڴţаȹBurberry˿Ƕװ+Ƥжѥ+TheDK88б֮,ǰôȵܶҲΪƷʵʹܶĴ֮ʽ,ڴ~ ƼģLEEȳ6LOOK ްʱװ¹Ϲ֤ͮȫ⡭ʱװȰT̨ά ʱصϷս˵10ŶƵʹĶԭġ
-fashion СӱգƷֻǿԴͷȴ 㻹ڹzaraͯװ𣬵ȻǶС˵ʧΪһܺõѡһСӱĨǸ...ûϵרΪСӷƷƣСĴȥð~ Brandy MelvilleBrandy MelvilleһеŮƷƣΪȫе·ʽֻS룬ţҪôݣҪôȥ~һ˼ģشЧǽʹұը~һĬĬȥɡغܶӶһߺšΪƽΪԼBrandy MelvilleƴʡһֻSŵ·Ʒƣļ۸ҲʮСŶһٶٶˣ·Ҳ60ӡԺͯװСӡСϽ~ҪΪʵ·գѡܶŶССţףTС~С֯С廹Ĵءǿɰ˶ףҲССһС£㹻ѡ죬㴩϶~~ɭŶ~ Petite StudiopetiteʾǽС˼ƷϾܿ˼ҾΪСǷ𣬳СxxsʱֵIJСڽȵĸװСDzǺܿԼŲȻoversizeҲСŲаPetite Studio㡣СĿʽ㰼²ӷסгĻƷĺƷȥС룬Petite StudioֻС롣ٷմְҵװɿˡϸĵӦ÷ҵģҲһɫСӣ߳160ĶǿɰССŵȹǼҲȴһֱʣСӵܴܲææoversize׳֯ȹȻǺIJźÿһֱûѡ֯ȹ㣬ʹƷưɡ˸~~һֱı~ԭͼƬ磬Ȩϵɾллϲƪ֣ӭתȦ
-fashion Ǯ˵ҲֱеǮµʿ ϲӦûв֪ٴģϵ֮ı۸߰ȻٴǺܶ˵ġĿꡱҲֻԶۡٴȺǽĸ¹ֱ˵ǮˡⲻһֵİٴоҪ9飡ɶӷdzϡкһԭװİٴľСԴһرĹŶ1976ĵһNautilusֱRef.3700ֵһǣӻУзdzϡУûм⣬ı״dzãΨһҲ$13,000ԪԼ90000Ԫңļ۸ˡľʱϿԿٴLOGONautilusdzϸԷֱеĺϷ촦IJֱ߿ĥ𣬵ǵ䣬״ѾdzˡȻͬҲаٴLOGOɫģǰٴ1976ĵһNautilusֱRef.3700ߴ39ףװ28-255 CԶһоʱʾȴֻ3.15סټNautihisõıǣȫܷ⣬ʡԵһˮṹֱֻĺȻ8סȻDZˮȴʺװʱǿԴͼĹпֱ֮һDzġDzľʺͲֲʽϣ֪DzΪһʱĸֱǿԿڲľм˵dzáһRef.3700УDzãebayϴۣۼ$12,995ԪԼ89634.29ԪȻ9ǮһʿˮʣǮһ鱦ʮxֻŷѺ...˵9ĺӵֵDzֵѰܾúֵ֮ܲΪʲô˻ôǮֺӡݹٷͳʾ˿XʮġʿʮСٷҲڡܶʿ⡰šںšԭλʮ˾ڽ̴ΰԿף
-fashion ȫƷɹ嵥ղƪ ﱸӦ˼ĸƵһʱ䡣ΪҪͣƷʹпСҲñԷһԣƷڼ䣬ĸ˿һϽΣΪȥǸû......¸ĸingԣ۾ƪ˼ĸǽѵƷ嵥ȫԣÿҪʹõƷһһгﱸڼ䡿β֡ɴ+ƷɴƣǰµʽƣҪǰꡣЬԱ˫һ˫ɴĸ߸Ьһ˫ʴ侴ƷĵƽЬԸ˯+ۣձر۾з++ڴ++ᣨ+ƤЬ+Ӱɰʻĸװװ+++߸Ьְʽ+ƤЬ ·֡Ϸߣָѹ塢٤桢ĩĤ......Ʒϲֶϲǡ̡ӣֽƱƷҵƷƷƷӱϴ»ʳƷ֡ӻϲǡӹԲϡࣨơҶ/ԲϣһǣԲӡ桢Բ˻ιĻãӣʱԣԢӣ β֡鱦 + + +ɫΣϼͷΣ ֳװβֳ֡ӭơϯλָССоƱϲǺУʻػȣ̺ϲǩʡڻֽͷϵijϵϲ֡ رȰߡСָСӡͷ뱸ó˿ࡢ۾ҺΣˮˮֽߡױޡЬ桢ҩ̱Աɢɢǣ 㶨³ѣֹͷʱ ϲǡˮ̡ꡢǩ ͳʽرƷ+֧ +軨Ǵͳʽбزٵĵߣ൱ڵĻ鳵֧½֮ǰɳģһ·ϿմȾаġڷڴſڵĻ裬ȥԢӺ𡣸ͷ+ϼ+ϲӴͳУҪľԭ֭ԭζķϼʽĻɴͷɴһϲȥͷĵߣԢ⡰⡱++ϲ+ɡ̻йеĵλԶǴͳӪյһ֡ϲǻҪװƷԢáҸãӺʽ+«ʽԢδıԸһ˳«һȡг»Ԣ⼪飻ɽʳưȽƣʽĴͳǣų֮Ϊ(jn)Ƶư˸һưƣ˺϶Ϊһ- END -
-fashion ѩӭ¾¿ˣµһã ͮעȱȽϸߣͬѩӭԵе͵ˣʵѩӭһֱæ¾ءɹѩӭµĻƬҲ¾ͣdz¿ˣСµһءѩӭܽûڹ¶棬˿ʾdzءɹµĻգҿԿʱĴС£һİɫ䴩һɫţжȹϴһ˫ɫЬdzԼǿźڴϸһѩӭ磬ʵİɫţжȹĴ仹ǺܳģϵȴǺܶصģر崿ŮϢСѩӭϲɫ·СһعһѩӭĴµһþϲɫ·ڿͣһɫijҲͬɫϵİȹ·ȹоµĻƣеرҲܺÿѩӭĺϲɫǰɫijǰȹȹϲڿͣһϮɫȹͺţϾµױݺֲʧŮζѩӭϲɫijϲɫȹôİɫȹϲģٴͷdzµķͣĻлءѩӭµһϲϲɫ·Ǿúÿ
-fashion Գ16δͣƿ 죬Գ־ḴϵϲѶˢСͻȻ뵽һ⣬ҵӡУԳʮһһֱһͣôҲ벻͵ӣû취С̫ǿͿʼԳЩķͣķ֣ûʲô仯ĿԳ֮Ϊ겻ˡλСǣСһعһԳķͣǷഺ䣿2002꡶ǻǻ ԳݵĵɬŶ80һ˵ľ䡣ҲһҼ̵Dzͷlalalala~СDzѾǸǵʱһƣеԳ˷ͷͣǺӰгġܶʱеҲЧF4泤2006꡶ɫԳΪֱ鵥ɡ2008꡶Գݶ裬Ϳڣ°ԣ߰˧Ըջһ˿Ǹıһ·͵ģΪϾԸԱȴǰһЩͷһ㣬ûʲô仯Ǹ2010꡶㡷Գƽʦһֻص˵¡2011꡶ҵIJԳƣһɵĸ˸ɫΪҾϲǵ2015꡶ǰѡǰѡƣƻͼܾ˼ǰѡû̫ı䡣2015ҵŮʱԳ̫ӡʮ꣬һֱһַ͵ҲDzһֱһͻô˧ľˡ֮ǰö˿Ц˵F4ֻʣԳǵҲͣ ܾջ氮ˡʵ֤ʮ겻͵Գʮһյİһأһջ氮ףԳ־ͯеӹһֱҸȥ̫ ²̫ſľõǾԳķ
-fashion ȹÿȴ,Bugô? ÿȹ¶ĸôӾ?ż,СĻ㴩С!Ļһ:ѡԼ!!!Ҫ˵!ȻֽƬ,ôȹӵѡϾ;ʽͿʽΪҪָӷȹ,Щ80ŹǾǰ,ͨ˾ͷŹԼҲ̣ȹˡ̫ɵİʽҲǴ,Ϊ34DѪҲȫʾĺ,ҸӾʮԲ!,Ҫ˫,Լѡ!Ļ:VVVV²֪ı,һðɱ!ֻʶҪμҵİҲͬ,ϸĴV,·Ĭ㡰Ļ满!Ļ:ƺܹؼ˵ͬǵȹ,ӵôƲҲ൱ġֽƬ˵,ȻDzϸϾҪϵĴ,Ǻȫ֪Լ!ı˵,һļ,ϾDZһһԭ!СĻ㶼ѧ?Դ:ױ- END -ʶά,עǡ·Ķԭġ鿴
-fashion ʲôԵ TOP涺 Ц Ц㴩 THE END
-fashion жģأýŦԼʱװܱеů ʱװܵT̨ʲô0ųȾǵר̨ȻµŦԼʱװϣһöڲͬģءⲻģ˾ƷEckhaus LattaVogue RunwayƵNicole Phelpsˣҿ21ʱװ㣬˽죬ֻһλеģءʱúˡ岢ޣPhelps˵ģԼ2015ʱװܵDolce & Gabbana㳡ʱģBianca BaltiҲǴһнǵĹǸӵʱҲеཱུġEckhaus LattaƷأMike EckhausZoe Lattaɵ˫ʦƷơΪ͵ǹġ˹־30under3030 30λܰϣƵƷһѰ·ٰ˼˼ҵӲͼһгУܿҼ·δģأҲְҵģءMaia Ruth LeeᲴĺңŦԼȦҲǷˮԼҵͨģELʦ˵Lee߽ȥԴһëȻokǣ㳡չʾξͽɣҪ֪Lee¸¿ɾҪ¡жˣʦ֮һMike Eckhaus˵һûʲôĻֻΪIJͬΣһ¡Zoe LattaҲ˵۶ͬͬ͡ߡͬױݵˣִŸо·ȥһĵ𣿡87.75%Ȥζˣڿ̸ʡ̸ʣtanziappظؼʡաȡVIP¿
-fashion dzϯߵȭӳ 塷ﶬ̨ͬ 926գӰߵȭӳŮǴϺջؾϯڡסȺѻۣطաﶬʱٶ̨ͬ һڰװ̺Լߺġӱصһּɫȿ㣬гʣֻ״Ϊ˼Ƥͱ¡ ߵȭУ뿪黨ǰԵʹǫʾܲѾdzҡֳǰӰŶǵϷݲ࣬ȴر͵߸ľͷһ֣ӰԺһӱЦƣߵȭ롶طապӦӶҿˡһ÷¡ĺ
-fashion ӰҵXXOOҸ÷ ˺l -fujislz-һ˽Ȧ飬ԭҪһλС˵С֪ @²۾ ԼķգӰҵXXOO......Ҹòüȥզأ֪ģΪϵij˭֪λСﻹPoԼϢеҳsirִȻֳУȻһͷˮҾüһ仰ܽ˼XXOO½ˣҸòüWHAT ȻΥֻΰһXǵǽȴСˣλСй⣬ʵDzģʶ ǼǷؼȼһ鲻䡣ǷҲǺǿ ڼ콡һҹߴɣôܣغͪڣʱ᳤ܶడDzģԼһֱֽԺܸθ㣻ΪΪ㲻ϢϢ죬̩ϣҪ״̬õʱ۵ĵȻӰˣҵĽͺаֵܣһһСʱ䣬ҽ㿴пƣֻ֪һߣСʱôģӦþͼӾͽôܱһСʱʱơƶǴӣмǿµСʱ90%й ϰ㲻ȥXXOOʱ ɢע Ҫ̫ͻ ȴҪýǾͲֵܡ Ϊһ˵ʵĺúڽһϱ˵žҶûΪij۰ֻкҲλСǰѽȷʵҿһģܶ˻Ӵʵ룬ĵʻӴĸǷйأʱ̣ѿᰮ̸˿ꡣʹӽʼʱ̵ij棬ǰȻҲôиʮӰСʱӶûСڣ꣬¼һΣһһΣһӣ¡ԣҺ˺ô·Ҳвߣ˵ԭԹϲͻ㽡̫Ƶ̫ݣ϶˳ԭԹ½Ҳ⡣ģСߣͦܳԿడһĴμɣҪΡⱾҲҪʱʵûҪʾDzֿĶ˾ʱԣԿԡٶЩģ̸ʱӲָ꣬ѧĽѵ50%ʱӳɡѧĽ˶ȫĸ̶֪ȺעߡʱĹؼڡעĺ䡱ֻעȫڡҪ̼֮ǿȾͿܽе෴ǡؽע䵽ļȺϣܾս˥һЩ̼ӣغͪڵѵǰǼߵӲеСǸϽŰ-THANKS FOR READING-ŮIJŽмƷͽ¶ڼߣˣAnllela SagraĽճǶѪ˽߶ע˸˺lɨע
-houseliving ͷһεżǿЦã鷿û˭ ǴϷﳤģΪܱȽԶҾǰϹסĵżңΪĻ鷿ҼֱDzţеЦðرdzźܶϷ˶ûżס˲Ÿоʵûʲôֵģ˵ӺӱʡһֱũÿÿûܱϷûůΧǸƻ߶µǿҾءżҵķС¥װͨŰʰÿ춼ǺܸɾDZĿҪڶڴرůͣһ㲻̫ӲҲڷһɳijķװ൱IJͲϴ»ҲǽʱżȻûϷĺãϹŶҶܺãҲϲҡͼƬԴ磺Ȩϵɾ
-houseliving 10뽡йصļװϸ,һܺ ŸҾװ(ź:jiufujiaju)ÿΪѷװҾͼ,װ֪ʶ,ڼװϸ,ΪʡǮʡ,װ!ÿ˶ע,עʳ˶,ע,ⲻ֪ʵϸھ,10뽡йصļװϸ,ƽʱӦע⡣1ֽѡȺɫо,ɫɫǿɫ˽,ӰѪܽ鷿ǽֽѡɫ,dzɫ,þԵø,ܷ顣2Ӿɳ1~3ײܵж,λþĻ1~3ס̫ƣͺͷʹķա3ŲҪ̫о,һĶܻӰ,Ǹոշ顣4ҲҪ·35ֱϵ(൱һʱ)ͻѪѹߡšסԶɵ1ϵಡ,ٽס27%泯·,Զ·ķӱ,ֲ5ƾ̫߱ڲɫԴۻ,Ŵ,ʹͷĿѣʧߵȡ,ڵƾѡӦתơ˸ԼɫʺʽڸӵĴչ,ѡ͵Ľܵơ6Ҫ̫Ҵּ̫ʽϸߡѧһʵ鷢,˯ʱ¶ڹµСȺڰеС50%,ʹĿ·ͬоԱ,Ϊƹ,Ӱ³´л7װʽʽſ,Ӣȴѧоָ,ֲпǷϵͳ²Դһֱʳ·;ʱŪ,շסȼ8Ҫͨܶʱûд⡣ʪͻ,컨ù,дܺܺõͨûд,Ҫװһʴܺõȡװʱ,Ҫˮܰʵʵ,⳱ɢȥ;²аҶ,ͨԡ9ƼҪװЩζѧо,Ķ,ij,ôҪij嶯ͻһ,پõķǰѼеľƷŵε,װƼ,龡ƵһЩ10·ϴ²ƷеζһΪӷлкѧ,ɴ̼Ⱦ,շԻ,齫¼̨,ɹʱͨ硣ʹ·ġĶԭġװ!
-houseliving ֻ飬װޣӱǽоϷأ ·̵ȥ·ԿףΪҳʡװԷܸ˵ҪһеűƽʦҲDZȽεģ˵ŴװϲʲôװʲôŻصУƿżֱôȢôһϱ̨̨Ĵשϸĵשԡʵ벻ͨôһ²ۣ95ģںܻDz65ģӱǽ~ʵڲ˵㲻оǽе}ûôDzǸɶϲˮģһҪ˵ʵëϴּɫǸϰɣֶЦûdzһӱǽҿŵӻ̲סȥµҲʹ˵ˣ̫Ϸصĸоˣ벹ҲˣϱҲֻϣ¶ҼҷӵĿҪ֪ˣиҪϱ
-houseliving ũǷô죿16X83¥40 ʵũ彨УҪĵΪչ˵ڵ⣬ͬʱҲΪ˴ϻһ߶ȵƣǷԼ˿϶࣬Ϊ¥õĽչʾʵȴľסռ䣬״ⶰ16ף8.24ףռ142ƽף301ףܸ߶104 6 2 1 3¶̨ 2̨ 1 1ñ 1ƽ沼ͼţײռ佫ȫںһһֽϴĿռչʾǰӾЧӳɫסи䣬ռһΪ¶̨ƣɹ¥ǿͷռãҵȣֶơüָŹںţסլ500ױͼֽͥԺʩ
-houseliving 90O,ϲı߰~ Լļװʱ,ʵǵһԭ,ͬʱҲҪۡҷһ90Oıŷԭľװް,һ±ŷȫݶǶôľʰ!һƽͼ,,һ̨,dz,Dz,ȫĶdzľذŶ,忴һԳƵĻ͡ռܴ,dzɾ,һռԭľذ,ԵȻº͡ǺIJ,شʹռͨ,˼ѵIJɹ,ɴƮҲۼӴ~ɳǽ͵Ĺһ,صҲʮص,ټϵ̺ĵ,ʹռ߲θкˡŷɳ˼ҷԭľ輸,رǰɫкɫɫԱ,һʵȻ,ľ?û˵ľʵذǿռ¶ȵ?(IJ!)ľذϾԱڴשҪů~˵ľɫƴӲ輸͵ӱǽװι,ҲDZ,ڲĶǽϻһľ,ӾЧҲܰŶ!ʹ˴ľ,ǿռӵθ,ǾÿͲù,ʵѡװι,ܺܺõķָռ,ǿ!ܼ,ǿȴܰ,IJδһյصĵ,ӪһܰľӼҷΧ,DzǶʱθڸ?Ƕȿ,ɫIJɫ,ں,Ա߱dz,һΪ,ܹ֤Ӿͨԡٹ鷿,鷿ɹ÷dzֵ,˹ͬʹáһʽ¹,ռDZزٵ,ϲþǿӾ,Ʋʹ鷿̫ѹ֡Ҳľذķ,ڴƷʹѡʹɫ,һӾЧøʡ֮Ĵܰɫ,ԼɫĴƷҵϢ,IJɹҲܱ֤ҵԡͷdzĵ,߶Գƺɫ,ʹһƿҲŵһ,һͷôСһ㻭װ,Ҳ˭˵ԾͲа칫?ҲһĹ,ճ,߱һɹŶԵС˵,Ĺ,ƽȺȲ,ͻһdzʺϷɵĵطĿǰûзôƷ,ԾһɳεIJ,һʽİɫ¹,!˵¼ԼŶɫϵɳ̺ʵ,ٴһֻСľСɵװƷ,ǾµòϽз,ܹɽʪ,ϲ侲͵ɫ,һҪѡڰҵŶ~
-houseliving װ74ƽСӻ13 Ѷ˵ֵƯҪ ԭĶȡ3װ뱨:74O:һһ:ŷ:13ǼװʵӲװûô,ҪľװĴ,еļҾҵװƷԼ,Լ뷨ʦ֮,װܹ13,ҵǼҶ˵װεرƯҼǮҲʵ,ҪЩװεӡԼҲǺܽءƽͼƽ沼ͼ,Ҽҷ64.6ƽ,˴9.54ƽ,ܹ74ƽһ㡣صĹѡ,ɫ·е㸴ŵĸоɡؿͲǽǵӹܵ,ϲĸСֲ,,رС̨֮ǿʽ,Ե̫,ɳԱ߷˸ľʵĶ౦,鱾ԶܺáͲҲǿʽ,ֵŶ,ɳС輸,ܰɳǽϵװλ,Ļ,öƯɳϸװΡɹ,ʵƬǽʽ,ԸʱСɹΧϸװΡǽرѡ˲ɫĴש,ԵûһЩ,ʱáұȽܰһ,Ҳ¹,ͷһ,һ˸С,鿴綼ܷ㡣Ҿͺ¿ɰ,ԺĶͯҲǸ鷿,ʽ,ɺԺ,ҲͷϢҰϴ̨,ʹñȽϷһ,ֱש,ҲƯʡǮƼĶ:С8װ78ƽŷ ǽŴռ̫90Сװ76ƽСͻ5 ǽɹʱʵóעȡ500װްԤ
-houseliving 170Oִʽ,Ҽ,ʵ! 170ƽķ,ִŵʽװ,ͬʱĻ,ڿռַҲDZȽ϶,ӵ,ȻϳȴƵ൱ž,һؼҾܵ˶صܰϢظֱȽϳ,źֱ,ÿλؼҺһʱϴ;ߵǽҲǹһܰƬǽ,һžܸܵҵζ; ұߴֱЬ뻻Ь,Ьмλյ̨,һСֲ,źܸܵµϢǽԸשͨ,ͬʱԲɫשΪ;Ь뻻ЬʵײյĿռ,طɾЬ;ЬԸӵͼ,IJɫҹ,ССĿռ䶼Եøľĵǽװ϶Գŵװ,ȴֳŵĵθСɳǽͬĶԳ,2µװλ,ɫIJɳĸɳ,ԵŶִשĵ,ռ䶼ֳݻߵķΧйо,ʵӲװ,ݻļҾװ,Եָߵǽװ˸ͱ߹,Ϸ2,ڷʳĻװƷ,ʵáʽʵľIJ,һµ,ֲĵװ,òʵϢԱߵǽи,һһԲι,ԵֱӴۡɫľذ,ɫĴ¹,dzɫ,жִŵִʸСͬʱ˸СƮ,Ĵ,Ʈϻװɴ,㲻ͬĹҪѴڷ,Ϊڷ¹ȡ˿ռ,ɫĴ,ɫĴͷ,ͬʱɫĴ,ռδԵú¡ͯľɫ+ɫ,ͬʱиһС,СӳΪӵͯȤء鷿ԲŸ,òɹڹͬʱӵпĴҰ;2ǽڷ,СռʡƮλýƮӿװС,ڱҪʱԱɿͷʵáɫij,ɫǽש,õɫ,˻ĸоװɫשĻ,ɫȵĴשƴ,һֶصСĵש+ǽשĴ,ЧԵøĴ⾫¡ ֪ϲҵķ
-houseliving װޱƷ1ùװޡʮݽڣʵݴؼң ҵװ϶ Ͱ¹ذ塢שɳָһꡭ ùװ12ۻ900װҵڱùװڳɽݡҵرڹƳװޡʮݽڴƼȫ 5ɱƷ1һݴ 1 ѡװùװѡݱװƷƣΪѡʽļҾߣװʡʱʡĸʡƷƳ˱ؼۡʱɱƷ֮⣬ɹƷȨʹ10Ԫ100Ԫ50Ԫ300Ԫ100Ԫ500ԪȯװʡǮײĶԭ-᳡ƷȨ 2 ɱ925930գװޡʮݽĻ˿ͼɱƷʱֽѧҶɣܶ˼װǻѡҶһߡˮ⣬ܸİҶ˵ѡˣؼɱŻݼ۸ð50Ʒҳɯԡ©3ֻװ ɣֵ©װò˿洦ţʹðȫˮˮٶȿ ˮĸģƷҳӱǽɣװ϶Ҫӣϲ࣬ǿѡȩԸߴ85.7%ĹƷƣѡϣԷֹϷ÷꼾ǽ巢ùŶ10Ʒҳ¹¾ ɣ˼ôȱ¾ǻСô죿¾ﵽ㣬ת¾ģ۴ʡռ䡣30Ʒҳ3Mǰùɣ3Mˮг֪ȻDZȽϸߵģǿȵ˿ǣѹԺã40ײо˾ȸߣʹʽϴоƷҳ 3 101105գ¡صdzÿѡڲƷʱƣۣ59Ԫ/Oгۣ178Ԫ/Oשۣ64Ԫ/Ƭгۣ198Ԫ/Ƭñذ ۣ208Ԫ/Oгۣ448Ԫ/Oɿأ20ֻײۣͣ488Ԫ/гۣ1584Ԫ/ɯˮ ۣ599Ԫ/гۣ1280Ԫ/ŷԡԡҹ ۣ1999Ԫ/гۣ2880Ԫ/̫̻ ۣ4680Ԫ/гۣ7026Ԫ/ɿۣ6099Ԫ/гۣ18965Ԫ/ϽоٲֱƷҳ档ƷδǰԤԼ 4 װޡʮݽԹЩѿ˻㿴ҪôأСϸ룡1.ιĩײĶԭĽװޡʮݽ᳡Ʒʱ䣬Ȼϲĸĸ925-930գǰ鿴925-927ա928-930ʱɱľƷǰùŻݾû925-105գʱڣѡݱװıƼֵ⼸ģIJƷ˾Ϳ2.ɺβ鿴ùװApp߹ٷŹںŵĸIJ鿴ĶҲùװװܼҵţΪʵʱʣ⣬Appûȡ188ԪŶ켴ãʱֱӵֽÿû1Σ 5 װޡʮݽȺڼ䣬װޡʮݽȺ:ɱƷʱѣƷʵʱƼڲƷϸڡʽеⶼΪùװƽ̨ϣʡĸģ ɨ·άװܼűעɱȺͼʾһڶ*λȨùװиƷŻݴĶԭĽ᳡ΪϢŹ۵Υ桢Ȩϵǽʱ
-houseliving 90ƽִݻ,˳ȵĸ߹ ϽҽһִݻװްͻĦǡʱ,뷨ƷưԪ,ɫԳɫΪ,ͻռšʡļҾߡµĵ,Ӫ߹ݻĸо䰮˷ĹһƷɫ,ůɫΪ,˳ȡɫʹܰš ִԼ߹ݻ,ѡůɫΪɫ ڲ,øߵʵľͽ¶ʡ ˳ȱµһʹܰš Բεĺɫ輸,鼮,ʸС ŵƥװλҵķΧŨƷλ ݻˮ,뾫µIJ;ߡ ƤӲIJ,õʯ ӲӵĻ ˿ķ,˿õְ,˳ȵ Եʵľذ,ǽø齺,ıǽʮ㡣 ͱµĴͷ Ҳͬķ,ͷ˰˳,鶯á һ߷һ,Ϊ칫ط ͷһװûӭעװ3000ЧͼŶ~㡸Ķԭġ,ȡ!
-houseliving Ǯһмװ8Ҿ߽Ϳס һװƺ·6ѮͿʼװˣǮˮװûʲô⣬ҪȻѰˡװԭҲһ㣬κǮϵʱǴСӣϸģȻЩſҲû취Ӳװ깤8㣬ܶˣװůƬƬҿͦġڽŴЬ棬ڱȽϸɾһͱ߹мտԷһЩõ800*800שŴһЩմɨɾѽһ顣ЩɧѡɫĹţŴչյĵط˵ôװôװˣǽһЩװޱûüȥеβûеţɳǽˢҰɫ齺ᣬǽõıֽװΣװŵģʦ°װˣ˵ǸЧã֪DzǺҡԭαشģʦһӣƮЧɣ۶ҲҲͬˣ깤ЧȷʵǽֽӡģƷζһ㣬Ҿͱ²ˡ¹ƣڲҲֵĺܺãͦõģΨһȱҪʱϴ¹ͦİɣԸģ˺üأ700飬ǰЩˮͷûװأԽԽϲߴֱġ̨ɹҰdzܱɡԵеӵܻǺȫģⰲװ˲ʪ룬ȻͰŲãʵûб÷õ
-houseliving ƽլ,ɵ µСƽ,,ڹϾܴȻá,紩,ҶƬ,ĿĴ䡣ѡȡȻɫ,ϸɫصغݶ,ɫɫһ,彨Χ,˹,ҲȻ!װ۵ĻɫƤɫһĿռ,ɫ滺˻õķΧ,аȻϵij,ˮƽ ȻľԪ,洦ɼ,Ȼ;װԼΪ,ɫ嵭,ڱ仯,ǰӰ ش,ʵĹ,ĵӰҲҡҷ,һӵ衣һʽ,ݶҲ촰,ʳͬʱ,ҲܾȻ֮,֮ů鶯,ľɫ,ÿռȤζ,һͯȤ,ҲܵõɡƽСլ,쾫ԵľӼ,ȻȤζ
-houseliving ,ʵ APP Store һļҾ־ɵװ,ijŴ,ʧµŵΧžȻķ,ôһIJõŷʽ,һ˵롣Ŀռ,ӵΧ,ܱڡشľϵعЬλתǿռ,ľƤǽ桢ʯƴ컨,˼,ӭʸС,þĺڰΪɫ,ԴɫϵʽȻʯĵذ,Χء,¶ȵں˫Ƭش,ǿӵеľѲ,ϰɴͽڲϴ,ݷΪĹ⾰һɴ,Լء컨塢ڰ塢ǽ,Կɿ˵߰,Կķ,ں,ǽı,ֳһռ䡪ѡԲʽʵľ,Բž,Ϸ컨,Բ߰,Բˮ,ºӦ;ֹƵй,,չƷζ,ԲͲӳһŨʽζĻڿĹռ,ִ߱Ԫ,赵ں,Ļ϶Ϊһ,ĸ̵Ŀռ⺭ƿ,ǰɫϵľij߹,Լʵõе̨,óɫϵʮ㡢ռҲʮֿÿһתÿһůķ羰ͬڹռĻԻ,˽µϡܹļһҵĹ滮,ʵľƤ,˽Ϊʵľľذ,ǽɹΪȻʵľƤ,гġáұڹҵ,źɫɫܺƻ,任ĽĿݡԸٿͽڱֽ,߰塢ʵľذ,ʹɫϵĴ顢,ÿһ䶼ѹĸ,Ŷ߹ΪdzľƵIJα仯,ǽɹ,ʵչʾղƷ,ʮ,¯ͼϽƷ,ƮɢŨŨŷʽζ,ɾһӾ硣ʦ: 1. ϣռӵзʽĺΰ,Ϳִ,ӪķΧ 2. ϣ˽IJֿԴѹĻ,ʵ,˳,Ӫȼٷ S o l ut i o n 4 01 ӳĶ˽ǶȨԵǽοոդչʾ,ȡʵǽΪռ綨,صѹȸ,ռеͨ,Ұ촩,ÿռиӿŴ02 ŷʽ¯ڶůĵĽ,ԸդʽΪƬ,ռĴ,ӳ,رƵı¯,ŷʽӵ쾡,Ϊռ䴴һĨ˵ů⡣03 DZһļҨȵռ,ķʽ,ŷʽζľԪ,ʯذϸۼ͵ƾ,ݷŷʽDZλ04 ɫŷһèԺͿҲŷʽľԪ,ŵİɫ䵭ŵɫ,,ʵľذǽ,Լڱڲɴͷ,ŷʽŵΧHome Data ƹ˾:ʦ:ҶѧԢֱƷ:緿״:ëݿռƺ:600Oռ:52Ҫ:ѡʯʵľƤרhttp://www.searchome.net/PChouseҾ־Ȩ ؾӭת ע>> չĶ <<>>ŷ,һ<<>>36ƽСݾñʹԡ<1.45m0.25~0.35m*̨֮ľ>0.55m : ϴ̨:Ϊ0.55~0.65m߶Ϊ0.85mϴ̨ԡ֮ӦԼ0.76mͨ ԡ:һΪ0.9X0.9m߶2.0~2.0m ˮͰ:߶0.68m0.38~0.48m 0.68~0.72m ڳóߴ:1ǽߴ(1)߽Ű;80200mm(2)ǽȹ:8001500mm(3)Ҿ߸:16001800(ľ߶)mm2.(1) :750790mm(2) θ;450500mm(3) Բֱ:500mm.800mm,900mm,1100mm,1100-1250mm,1300mm,ʮl500mm,ʮ1800mm(4) ߴ:700850(mm),1350850(mm),2250850(mm),(5) תֱ;700800mm:(ռ500mm)Ӧ500mm(6) ͨ:12001300mmڲ:600900mm(7) ų̛:900l050mm,500mm(8) ưɵʸ;600һ750mm3.̳Ӫҵ(1)˫ߵ:1600mm(2)˫˫ߵ:2000mm(3)˫ߵ:2300mm(4)˫ߵ;3000mm(5)ӪҵԱ̨ߵ:800mm(6)ӪҵԱ̨:600mm,:800l 000mm(7)*:300500mm,:18002300mm(8)˫*;;600800mm,:18002300mm(9)СƷ::500800mm,:4001200mm(10)е̨:400800mm(11)ʽ:400600mm(12)ʽۻ:ֱ2000mm(13)տ̨::1600mm,:600mm4.ͷ(1)::25ƽ,:1618ƽ,С:16ƽס(2)::400450mm,*:850950mm(3)ͷ:500700mm;:500800mm(4)д̨:;11001500mm;450600mml700750mm(5)̨,9l01070mm500mm400mm(6) ¹::8001200mm16002000mm500mm(7)ɳ::600һ800mm:350400mm*1000mm(8)¼ܸ:17001900mm5.(1);35ƽס(2)ԡ׳;һ122015201680mm;;720mm,450mm(3);750350(mm)(4)ϴ:690350(mm)(5)ϴ:550410(mm)(6) ԡ:2100mm(7)ױ̨;:1350mm;450 mm6.(1)Ļҿ:߳600(mm)(2)ʽҿ;߳700l 000mm(3)ʽҷͨ:600800mm7.ͨռ(1)¥ݼϢƽ̨:ڻ2100mm(2)¥ܵ:ڻ2300mm(3)ͷȸ;ڻ2400mm(4)ۺʽȿȵڻ2500mm(5)¥ݷָ;8501100mm(6) ŵijóߴ::8501000mm(7)ijóߴ;;4001800mm,(ʽ)(8)̨;8001200mm8.ƾ(1)С߶:2400mm(2)ڵƸ:15001800mm(3)ƲСֱ:ڻڵƹֱ(4)ʽͷƸ:12001400mm(5)ظ:1000mm9.칫Ҿ(1)칫::12001600mm::500650mm 5;700800mm(2)칫:;400450mm:450450(mm)(3)ɳ::600800mm;:350400mm;*:1000mm(4)輸;ǰ:900400400()( mm);:900x 900400(mm)700700400(mm);:600400400(mm)(5)::1800mm,:12001500mm;:450500mm::1800mm 6:10001300mm ;:350450mmƼ:2017ܻӭ100ױǽ!ղػŶ!,ͻ!װ?װ?װι˾װ? ŷĴΪʲôװ˾ǩԼǰܾҵԤ?һװ,ֱ,ѡĸ?Ƽ:8000GԴ!(Ҫȫ)---- TOP20 Ƽ ---װ21,dzʵ,99%ղ!100Ưǽ,dzް!Ѫ:װ,Ҳͼ!ʵ¼ӹ,ǽDZ˷! ǰһǽǸ!װһ,ʧ51681Ԫ!һװ,ֱ,ѡĸ?ÿװ˾Ϊʲô? ˶!ש¥,ȻƯ!װ300Ԫһ춼,꿪Ǯһ!ļҾ߳ߴȫ,Ϊ˵Ľ!10Ҫסļ,ʵ̫ǿ!ΪʲôҪ?ƺ?ƪúܺ,ҲdzƯ!װ,ÿס?Ҫװ,̨֪!,ֻ1%֪!¹ô,ȫٵ?װ·,ֻ뾲 ...14ֻʹס,!װʦôһ!Ϊʲôװ˾ǩԼǰܾҵԤ? !¹ؼ,ɻȡʵ:ǽ | ǽ | | С | | | | | ͯ | | | ̨ | Ʈ | ʽ | ʽ | ŷʽ | ʽ | ִ | ŵ | Loft | к | 칫 | ˮ | | Ƶ | | | ռ | | | | ̳ ...·Ķԭġ,롰ؼʡѳҪ!(ǵõ ɸѡ ضȡ ,Ŷ!)
-houseliving 138O·װ,ؼҶվŻЬ! شõصΪŻЬṩ˷,ֽԼ˵طשм˻ɫʽĵשԡ:138O::ɫǽľʵذ,ټľʵذɫĵ,ʹ䲻еСȴ˺ܺõЧ,ͨ,ƵΪһĨ,ɫɴڱ֤õЧʱ,־ԡɫĵ̺,ľʵIJ輸,ǰһĸоɫ,ڷԼϲ,Ʒ,ɵͬʱ־ԡľʵijβ,ڼͥаڷ,ռ̫ϰڷŵֲԺÿIJ;߶ʹڳԷʱиõ顣õŵ,Ųռÿռ䡣ʱŹ,ʹ̡ܵСɫ,ʹúܺô,,ʹжź,Ϊȡṩ˷㡣ֻһǽ֮,ռµĴ,ɫǽ,Ӫʵ˯ͲƵ,Ҿװ|༭δID:vipjjzxάע
-houseliving װԲܷ8ǮĽѵ װ׳ĵطˮù©ˮȵȣһСëἫӰҺdz鷳ԴװĹУֻרעУҪ⡣Ʋֻٱ鹫ƽ̨鿴žµװƣղΪ֮Ƶаɣ1. ¶ȹˮպ¶ǺҪģΪ˸õˮĸһˮڶҪ¶͵ĵطֹˮ2. šˮܵΪ˲ˮܵˮһڰװˮ֮ܵҪš⣬ҷܵļڣΪպάķ㣬һ㶼Ὠұ3.ͰΪ˸ĴɨͰѡҲһҪ飬һõͰɫƣȽϴ4.©ȷװҲҪ©λˮ繤ҪϺãòۣװ©ȷĽоװ֮ܺܺõķֹˮζ5.שˮΪ˴һʵ䣬שѡҲһص㡣שһҪѡˮʵͣˮЧõIJʵġשʱҪעӷȷͶ룬⣬ҪעҪҪһйˮ¶ȡ6.ͰͰװʵҪϸҪȥʩ ȣˮƽȻӰԲεˮΧשӴĨƽ÷棬ֹζ©ھIJɿͼͰΧǷյģΧִԽͰǸϺͰ᷵ģǣͰǿյģͰ潻ӴûôΣζܳġԣװͰʱҪչ淶ɡ7.ڵǰͨҲãԴIJþѡPVCġ8.PPRӷ©ˮܱȺڰװĽӿںáڽǷκõϴĵطÿεİװжҪϲòҼ©ΪװŹںšֻٱ顿Сܰװɣ㾫ۣҪǮײ
-houseliving װܽ15ѵװź װһḶ́ССѧʲ٣ҵ·رҷעЩСϸڣװһЩ£װѣһҪסЩѪѵٷˣ1ﰲװʱûпǷèλãס֮ŷ֣èѹŲ¡2װƾߵʱûпǵİڷλãסŷֲѹڲ룬ÿγԷоܱŤ3װʱǸװܷסŷÿιŶСѡ4Ҽ̨ûשһ죬̨ϵˮ©ӡѩǽϣʮѿ5ƾߵʱֻۣûпʵԣĵƣڶҪ鷳ֱװʵã6Ҫѵˮڵ棬Ϊһڳ⣬ά鷳7ĵذɫһҪѡdzһЩģҡǹ߲õĻͣСͣdzɫĵذһ̶ȡ8ڸװôƾߣ˷ǮѸʵõľôĶ˰衣9ʱѡصģÿüҵʱذβͷֻҪһɸ㶨Ҽûڣ10װʱкܶϸҪע⣬DzİװҪǰԤλãԺʹõʱܷ㡣11һҪˮ¶ȣСԡһҪʩСˤӡ12Ьʱûпǵ߸Ьĸ߶ȣס֮ŷЬ̫߸ЬͲѥѹͷŲ¡13װǰ˵һҪװغͲҼҾװһ壬һ绰壬סŷ֣ʵǿԺ϶Ϊһ˲Ѫ14ͼˣðˮдש죬˲һ£ڷ죬ѿ찡3440ԪһƽҲúܶ࣡ķ죬ûпˣã15طãĸоΣգͱȽϳʪһ©ôҪһˮֲУ
-houseliving ҪڿԺ鷿֮,һ! ƽʱôס˵ĿԱ+鷿+ؿռ+;ͼƬ60,չʾ˸ʺϵ,ֱӿͼɺ,˵,ϣܰﵽ
-houseliving װĻ鷿,ʱƯ,һ鷿! һ115ƽִԼ鷿,ҵǶ,װĻ鷿dzƯ,Լʱ,,Ҫķ,ֻҪʵþͺ,һͬһǵĻ鷿ɡ,Ҫӱǽ,ֻҪһܰǽ,ͲǴͨһ,ǽ塣,ԳҲ˿ʽ,˸̨Ҽܰסž鷿dzƯ,ͬʱ̨鷿
-houseliving ̨ͨͿݶô200ƽķӣ ԭľ ܶ˾ͻ뵽MUJI뵽ʽʱҲɻԭľּЩIJôռԼһҲë˵Ŀ֣ǿϲǿʹϸˮ̺һԭľҲę̈СݣҲǼԭľ֮ڳɶôһ˰٣Ů귽25ij˹ͬ110OĿռ乲ÿһ峿ͰԭʼĻͽṹڿ뻧ţ3̨ѹҺͲͳĿռɹͨҲܺá ԭʼͼһڵĴ뻧ţԵӴ˳ռ仹ѳĴҸij鷿 ͼ̨ͨԺҺͲͳɹͨҲ֮Ե̨Ů˵ñԭľļ۴ӾЧǾס϶۵ϲ̨ͨغͿͨӾϸӿɹ⡢ͨ綼øƵĴڸDZ˿IJÿռά˲ĵԵǽΪؽṹܸĶҲ˸ʵõĹסǽĹӡҾߴѡ˳ҶƲͳһǰ¿Ҳˬǵ÷ͺ˵¼𣿿ǴƬİҶǽӡ̴ɫůƬ䴿ɫҶҲǿҿռչԲȵDzһ㲻䲻ȵʱȵÿռͨеļҲҪ̫ռIJʡͳһҵڿռҵϤӪƽͺķΧǶӶͳƽ̨߶85cmǽ1.25m߶DZڲij߶ľʸеijҲÿռһµķպ¯ĿλͨοǰԤʦϸ֮ΪǿǵĸԿʼʱѾԭԵ̨ñĿռûйҲӴӵذ壬ǽٵƷаͱͶȵ͵ɫʷdzʺϰͺƷζνԶ˰Ůɫǽȹպø߹ƮůƬʵƮһȦɫŮԸռŮе鷿ԭԸмߵһԱij鷿ȻԭľŰҶͶµİ쵹ӰÿռʱɳĴҲÿռĹܸñ̨ĵñŶӱԿһŰòɹʹռõ˹ԭһĹͨǽòҵ·һЩԴźhaiһ乫ѡ˶ױȽʡɱҲǰΪ˿˵ʵɫĵשɫǽש࣬ռɾԭľ绹˸ʪʵãʸзϢͣ 3ʹ110ƽλãĴ ɶװѣ30ԪƵλ֮ʦ潡
-houseliving 40³ⷿƷҶסȥˣ hizhukeﶬůůĺڶæµţҲݳƷⷿһլڼͿɹ̫ijǵ˶죬иֱ̫ⷿҸˣôⷿôƺÿأһΪⷿư01ܴ͵ⷿһ¶̨ͥԺһⷿ촰شʹ㣬ȫѼһȲ졢塢齫ɹ̫Ҫ仯ⷿʵ˾ҺܽӴʹںĶգҲΪӪһܰľһ02ܷⷿƶ⺮ⷿԹܴ磬Ӱ죬ϾһСһ˵ʱ⡣03ò͵ⷿⷿΪевĩǿⷿڳԸһŴķ羰ԻƽʱڲԷĸоһ04ⷿⷿĿǰѾΪִȻȻʱСⷿһĹ߹INҾֻΪ㳤볱Ҿ
-houseliving ͨð·ˣǶȻǰ˰Ծô Ǵũдģܶ˺ö꣬ڴһȻûôǮһ·ҲֵģҲ·һȫԼ뷨װһ飬ͨˣסˣסû죬дγʱ˵ֶǰ˰ԾⶫDzҹҵ𣿸հҲ찡ҵʱ¼ҵʱŰݷùѽסһϷޣҲܺΪʲôͻȻϰԾ̫ȱ˰ɣۣDzŰֲִãҵô찡ȸҽҵļҰɣǰʱ±ȽеļԼģŵĴЬŵ뷨ҪǺܶЬŶö˵ʱԴŪDzʵũ˶ܺÿ͵ģʲôò˶ʾҪҪƷ£Ǵе˴뵽ģֱòŷָõǽϹĻɴպһЩջһգϷĺʵð˶ʱóãǴǶһһĿҲŪ˼ԼıǽԱ߷С칫DzǺޣֱӿҵҰҺŵķ䣬DzǺаѽϲľƮˣƮҲ˺ܴĹоDzǺܺãҹ죬̸ԣǸŮõģŮѾ9ˣһ˯ˣܺһӣҲһҪװƮڶ̥߳ˣҺҲҪСӣȿſһžͿõⳡоϾͲˣ~DzҪȥҸľջȥϵ϶ֵģûСҵͶ߶ŰҰæ취
-houseliving СسҲʽ,Ľܻ16.8װľ ʾ:ĩβȡ4+ ÿ5Դ ʽԽԽ,˵סسǵıܼҲװʽ,ĩ,п,ȥһҪ180ƽķ,װȻ16.8,ĽҲس~Ϣ:ʽ :ľ:180ƽ :16.8װ,ʽеζ˵,˺þҪҪ̨,վŸ,˿,ǸǵѡľذһdzɫĻƵ̺,סҾúе鷳ɫıǽ,ԳƵĹ,Ͱ˵Ρ֮Եĵط,ûϸĸϡҵص~ιҵij,һҲ뵽ʱζ~Dz,ԲβԲĵӦ,ԢԲԲ뷨ɡɹ,ĶϢ̨ľϴ»İڷ,պǶڵ·ұʽ,˸̨̨Ƶ,С,ҶҲŶܵŮ,ϾҪѧ,סĻ,ӦÿԻⲻѹڷ,ҲǰС鷿,ᵢѧϰҲܲ,ԡͰ䡣һ,°ĵݸˮ~鷿ռ䲻һ͵ɹͬʱʹ,һԻ,˻Ϣ,ֶΪ?ϲŮҵ7װ115ƽʽ,Ч֤ë!90ƽԼС,,OR?ĵӹǵһμ ʵû·װϹ߹˵,ھӶģ
-houseliving ΪʽװޣԤ㳬һ࣬ر ʽʽļҾߴҵɫʵİʽҾߣӳִľסҪӭʽҾӵƷʹʽʵáִС126ƽ ã11.9 ͣظɻȡذЧͼէһǷdz͵ִذûвľʵذ壬Dz˴ʯĴש棬Ȼûôǿȴʡ˲Ԥ㡣ش˳ĹߣÿdzɫϵɫֱȹɴۣһֳȵĸойͨƿͲ廨չֳȫ۶йװޣӷ϶͵ʡظɻȡذЧͼԲ㹻һãɫִһЩĸоظɻȡذЧͼĽɫij˵ǽǽȵɫˣҲóȥʸСһظҡɻȡذЧͼ˿ķװϲԭľɫãñŷ洦顣ͯظͯɻȡذЧͼͯ»ãСӵĸԷչԭľɫÿռ俴Ӹɾࡣ鷿ظ鷿ɻȡذЧͼ鷿һٹװΣʡ˲Ԥ㡣ڱѩĿռƣڵҾѹҲûô150ƽʽȻôһ¶...ֿסլ200OķסŶ೨
-houseliving 鷿װ̫ƯˣƸгǿʽ磬һضˣ ڼҵװΣܶ˽ԼʵãҲЩϲѼװεʰ쵣һϣķḻʣװʵúܶɫģΪ׳ִ䲻ãҵĸоԻҪʰ쵻ҪĺгͳһǷdzѵģҷһƫʽĻʵ98ƽӲװȫ15أһŸ˵ĸо·ͯ磬ɫЬɫʰ쵵ĵשٴֲһͷɭֹԭľɫIJ輸Բӻʽɳƴɫǽڷ·һ磬ɫʵĴûһҵĸоһпôĺгź˶ɫʵĴ䣬ƣ˿ռʣU͵ijƣҲ̶ϵ˿ռʣң˵ûͣȥӿտӵĸоԭľҾߵĴʽعȻص㣡ƮľʵƮ̨棬ʯı䣬濴ٺʲˣ̨ɫʴҲֻʰˣɫʴ䣬ʵڿռҲķdzõģƯʵõĻϲ
-houseliving | ,Լ! һ һ ʱ ֯ ģ Ϊ ʫ ¸߸ЬɷشЦרǵĿռзնͳͳ輸۵͵ȵζڱƷζҵҪеʽÿһСг̻Ψʳ밮ɹñССŮСȷÿһС,ǰӡDzŹ,ֿʱԭľ,,ʻÿһ˲еÿ䶼ܴ˷۷۵鷿ŮıǿҵӾ伸鶯ƽ沼ͼĿַ:Ŀ:94OƷ:ʽĿ:һһĿ:ʫĿװ:ʫլ䡶 ˹ С ѩֱ ʱ һ , ɫײͷĿռγµʱٴ¶ôԾ,ȵĺʱײ延ޱڵȷ,ҲڵɫĿ,ɫǽڽɫĵ,ɫռ,ǵ鶯ļͼҪѿռ۵ħû鶯ս鷿ԭľʱľʵ,ƤʸᾲĿռοʼĵط ƽ沼ͼĿַ:Ƴл:150OƷ:ִʽĿ:ķһĿ:ʫĿװ:ʫլ䡶 Yes,I do !˰㻶˵ʱⰮõٺϰòΨһ˰ϰǵ ˵Ұ",شYes,I do!黰......ͳʽĶԳƲ,漰ʵĴʹ÷,ӾҲõɫֻ,˿ռIJθִʽ,˿ʶʱеʽdzɫ,ůҺõ,ȴÿռ˲һǵ,ȴֳǷΪ I doĻ,ǰԽյ˫,ǵĿռ,ԭľƤݵĽͬIJʸǷḻʵĸȡԼķʽȡԼһ,ǼҸİ,ɫ,״һص,ͨһ,ҰȻ,Դ˰쵶Ŀɴϴɫ黳,ɫȴ˰ĵǼҵůµĿռһƬʱ ƽ沼ͼĿַ:Ƹ:112OƷ:ִʽĿ:Ŀ:ʫĿʩ:ʫʩʫҨƷ ʫ δȨ,ֹת С:tuozhe111 顶ߵ3 ƷԤ! | ȻĦ,!ԽȻ,ԼԽǶ!
-houseliving 35ƽַװ23ԭ̫⣬Ǯֵ Ϣ35OԼѣ23Ưҵӭĵһҵλ۸о40¥ĴڣʵʹԼΪ35ƽף¥ϸߣɹáǰԿ˶ַĵӲǣǵҵľ1Ȱϣ㹻IJռ;Ĵռ䣻2Ȱ裬һҪԡϴԡã˵ȸСȫ3м̽ףͣϣ2˵ռ䣻4ҵ죬ϣϣŵĹռ䡣Ʒԭͳ2.3ƽףŵ䣨2.6ƽ1.9ƽףռһ嶯ߣзdzǽγҰӿһռ䡣пʱһռñռ䡣ɳɿԣ۵ŹرգԺԣռ˽ܣʹΪҵĸϡʪij÷Ͻǽλòԭ2.3ƽСγɳȡԭеL̨棬һͣIJռӾͨС϶ΪһԡסԡҹԼɹܡռȫĴǽƳխĸ塣ڿǽ洦Ĺ̨ɹʹáһűɿĸԼشҷֱ۵1.5ִ١߿ɿ۵š̬ӯϸղ輸üε̺ΪɳذȻɡҡ˵Ķߡɫɫعṩ˵ǿռ䡣ɫСƳʹռøͬϵаɫ;߹ҼС͵ͨҡȫˡǶȥIJһࡣ̨ôɹǫ̃ڴ档Ͽ̨ƹҲԲȫ¹ӿռӾУ¹ұߵļзһ㴢ŹκοõĿռɣϾСҪǵľⰡ۵Źرʱ·ۣγ˽ܿռ䡣ʹøŰɫ˺ͺɫשÿռ࣬ӦΪ¥ԴţʱΪر״̬һͨƬܽĸɹʹĿǽɵҸˣɹʱɷ£ռռ䡣ͬʱװůȣرʪʱҲ¡ů۶ʱҲõţΪĶ䣨ͬѧҪЦﴰĸСʦ˵һвʵʵöֽϻΪôĸ˽С͵ܣսȰģջۡ
-houseliving һش,һʫ! ˵Ƿ۾ôشһ۾Ҳռͨ뿪֮ļؿǵ߷Χԡǿյĺ,ᶼеķ,˵ľǶôݻĺլԺֻҪӵһشļҳʵϢʵϺܶཨʦҲʹشڵĿҰشͲҲһ˾ĿԲչǵҰһϵܱشĸоı仯Ȼһ͵ķʽרݽķشͲŵƿԽһҵĿﵽDzߵԳڵĿ֮гʽרɫҶƮεŭ塢ĭֻҪĴмDZյЩӲ鿴Ķⷿ+ش,ҪĶشװ,ôװļ ʳ,ɾԼº,һݵĸ䷶Ʈ,ַҶһ䷿ʷȫ!ŷҾƷ,ŷŲֻ˼ס±,Žǽ,ϵȻɫ,ԴȻʦѧ,֮! | QQ : 7111980ת | ̨: "ת"˽ҪͶ | ̨: "Ͷ"˽ʷ | ·Ķԭѧƻг,ѯʽ 13760671980
-houseliving 95OԼʽС,¡ȻԵõС! Ŀúɫװ,ɫʷ,ϵװλռһĨȤζ,һЩµռζ ɳ,ʽĻľԪ֮һ,ɫֱ, ŷ̨,һǡôĸоĩ,ɳ,ϲȻ,ϲϸڴϵΨо,ŵĽϡӲ,гĿռ,ϸڵ,ȫֵ,ɫʴͳһ,Ҳǿ˿ռ!!غǼij,ǵʽ,ûвÿʽ,ŵļʹռͨõĹ״̬Ҫһõ˯ά,Լ˿ɫ,侲ŵķ,˸ӵĺߡ۵Ů,˫㴲ҲǷɫ,ƷҲǰɯ,һλõͯС硣鷿һ,ɫӹͭɫֺ̨,ɫĵذ,ɫɳ˿ռ,岻ɫЭԺ,ҾͿȫݼҾo2o߶˶СլO2OƷζ,Ϊ!|ihomeo2o.comĶԭļɻøʦ
-houseliving 115O»鷿,18װҸ! : Ԥ:18.0:115.0ƽ:
-houseliving 80O+Ͳ,ѿռõ˼! üұʶܰ?80OıŷСҾܸ,ѼװԼϲ,ҪԼҪ!ͼ,һ,űdz,ش,ֱ̨,һ,ӾЧǺܲŶڽŵĹùһװ,ȻǼĺڰһ,ɫǽ濴Ƿḻ˲ٰ,˵װεǡôںܶ˶ڼﰲװͶӰ,һĩ,ԺͼһӰԭľɫĵӱǽһװεɳǽ,ʹʱʡǶȿ,ͿĹʮȻ,ԭľIJͻһƵӴ,ɫɳͻɫIJ輸ҲӳȤ,ܵ˵,ĿռɫʴַdzС輸ϰڷų,֮Ҳܴ,֯,ʵ,ŵСʲôĺܷŶ~ֱdz,ڳϻǺעʱие,ڰҵɫʱ,Ҫǿʮָɾ,ſŶ,Ҳ´װ~˵֮и,ڲ˼,Ĵڸ,һкǿװ,ĺŶ~ɫĴ˵ҵӾ,Dz¸?дͷϵ֦һ,ǼԼ,ȴҲոպ,ɫڴλáҵ̨ڷ,һ,Ϳȹõʱͬʱ,ɫĴ,֦ͬһ,ŵŵĴ¹,ֵǺܸߵ,ҵСҲȤŶ漰ǽˮשǽ,ÿռ俴,û?Ͱ,ɿհ,ĵơȫݼҾo2o߶˶СլO2OƷζ,Ϊ!|ihomeo2o.comĶԭļɻøʦ
-houseliving 90ƽʽԼС,90ֱװȫ̡ װԤ,,ޡҪ˵!ʱ̵װʱ,ʡǮĵطʡǮ!13ҵĵ,ҵԺ,ͱϸȥ,,Ӵ˾˻IJ·ϡǵõ̴6.55%,һ6000н귿ͳˡһֻװݹֱֳ:Ͱװ̸װͬǽһ¡һ.ǰԤѡ,ȷװʦͨͼͳ˵֮װͼֽһҪ,ƾ롣װÿһҪмѰ,ʩͼ,װ̵IJ,֮һ仰,Ҫװоݿѭ,ֹͼʡ¶װɵ1.ȷװҪȷԼϲװ(ϲԭľϵ,ȫʵľ,ÿ,ǽù,ֳᡣ)2.һ·ݵĻƽͼʵû̫,װƵʱֻ˼ı䶯(ʵԺԲƵı䶯)1)ؿ˳2)СĿռ3)Ʈ˹ջö漸Ҫ:1.С,ʽ(賬ϲʽ)2.Ҫǽ3.ijҪ4.Ԥ(Ҫƿ·ϵͳյ͵ů),ѡ+һůʵġʩʩʱһҪװ˾Ҫһװʩȱ,ӹ,ͲҷƤˡܸЧӴ!1.ˮ(һЩʲôҾ˵,˾Щʲôɻ,ܽĸʵܹƵдɻ,ʶľղ˰!ٶȶҲ)1)ˮ·Ҫֿǵ©ȡˮ㡢ȵǧҪŹ˵߲õ©,ϴϰòˮ֮Ĺ,Ƕ͵ϵĽڰˡҼĸ,ʱ˸˵ûҪװ©,ŻؼֱҪ̫2)·ĵ߿ٸҼǵõʱװʱһĸҿ̵ĵ߲,аѵȫ,һȥؿ,̵ֿǽϵȼ,ҲǴ,˰ԶȼʵһȼĶ,ĵ߹ʰʰҲ֪ô3)IJӶ,Կײȫһײʲôλ,ʵȫ̶ı,еϲ,ڿ5.1,ôһʼҪɳԱߵIJͲ;еϲڿõ칫,ô輸·һزܻʺ;е˿һӦȫ,ôԤ㹻ǽԵúбҪIJβͷҲһܲ,иƻ״̬ļҵֱӹر,Ӷӽܡ4)Ԥ߹ܿ߱ø˺ڿܻ漰ļҵ,ӹܺܺõز,ô߱ķdz,Ԥһֵ߹,ø߶ǽͨ,Ŀҿȥࡣ5)ֿԤϴλõˮLZź,ʱܾԼڼĻ̫,ϳС,ϴռ̫ռ,ڷֳ극ԲÿϴɳϿӼֱҪ̫ҸϧҪװĻɱʵ̫,ϣװǰھܿǵ6)ǰþˮװˮǰþˮȻ,װڳĹܵռôĿռ,ˮռ㹻,ˮǰھֱӸ㶨ɡ7)λԤ,˿̵䡭Ľ·źֱӱ,·òڵӹ,û,µӹܵסȷʵǿ֢2.ˮש1)ˮʩˮõǵ¸ߵķˮײ,۸ȻԹ,ˢͿ㻹Ǻ˷ĵġ˽ȡˮĵطˢȡˮ,ˢ1.8m,Ҽʪһ8O,ײ㹻,˫ʮһ,רͻ,µڶ͵,ʱЧܲ~2)שڴשѡ,ҵĽ:һƷƸ˾ü۸е,һƬ600*600ȫɷ¹ש۸λ,ʵȴ(Ϊ)ѡ˶Ʒ,ȷʵûʲô,ϣָܹһ600*600ȫɷ¹ש,30һƬ,שһжǽ,Ч~۹,˸ƫ¹שº͵ɫͷ⡣ܰʾ:ʵשǿõש,ЩשΪʽʱԭ,ʵȴ,ڿĵطԴװɱҵʱõ60Ƭ300*300ש,ʱ߹ʦ,绰ȷЩשҪʲôط,ΪɫһµȫשģͻDz,ԴשʱĹ~ȫשΪѼӹԭ,ûɳˮשǽǷdzι̵,ԵôשڶԵ¸콢겻ӡ,˫ʮһҵĴש,ʵ֤ճ϶ȻǺܲġע,שǧҪˮ!ֱˮʹüɡ3)orڽԼԤĿ(仰Ӧÿüˡ),ѡ,Ȼ˫ʮһڻ¸ߵ,ס,Ƽ,ˡھӼҵȷʵĽʵ,ýԼԤĵطҪûǮ3.ľש,ǽ桢ƽǷdzؼľڡڿҪͨĻ,ΪͬĹӽʹϰҪɲͬĸ߶,¹ֱӹϵŲ㡣õñE0ӣ,ʵ깺,255һšľ˹5000,ĺһ10000,һ1w5㶨ȫ,ʹXX,۸ֻܸ㶨һ,ǿٻ塣4.ǽˢԿ,ѡǰȵĹ,صıҲȷʵҴһ,λıһַԱѵһҹר,Сúܾϲ,˫ʮһ˫ʮµĺôͻԶ,ôȷʵˢûŵζ,ȩҲȷʵ;Ǻӷһ,ָһһӡ,άҪʮСġȻ˵¸,֪ص7һ,¸10!Ը·ң֪!(ɲƹ氡,ĵĺܺ,άȽ鷳)5.ššɵЩƵļҾ,ֱϵ,Ҳ벻ľϲ!6.ˮ缰ƾ߰װһ,װ͵β~һҪעǸѡļҵӦĹӵijߴ,̨ϴ¹ڵƾߺͿ,Աֱһһ,ҪʲôĶСѡȫϵʵľĵƾ,һ2500ȫ㶨Ұװмַ´ʦĵ,۸ҲޱáͲƺ͵ƴȫŷ콢,˫ʮҲǺüֵۡһŴ辭Ƶ510ʵ̨,ߣ,һëҲûС7.ľذװѡľذʱɰҾһʱ,ʱϲذ,ϾΪļذϰȻȰѡľذ,ذڸ,Ȼذʸ,ҲաűŹ,һؼ۸ϵذ塣סֻǸϵذ巽,ʪϰҲûɶ¶,Ҿ߰ȥҲûʲô,˵,ǸϵذۺôʺҰɡ8.Ҿߺͼҵҵʱ,Ǻʵݵ!ĿԵ!(ûĹ˲Ƽ,Ϊ滻Ǻ鷳)Чͼ,һǾһеĸֵáӴ!װЧͼ,˵ô,װDz֪,װĹĺܷǮ,СëһݶҪ㿼ǽȥװõķijɾ!ܻ(ע̨ظؼ)ظۡ| 鿴װԤͱۻظơ| 鿴ŴƷظ̡| 鿴ϸװ˽װϢ?֪װҪǮ?½ǡĶԭġ10뼴յϸװޱ嵥Ŷ!ѻȡ4װƷ
-houseliving ˬ,յļֻҪɫ APP Store һļҾ־ɫ2017ɫ֮һ,ůů,һζûɫ,ֲɫŮװĵͥԺ,ʤաٱĻκܶ,ɫȴ,˸ʮ,һ̳ΪͥԺĽ㡣ΪͥԺ,شҲҪɫȾһЩٲݱ֯ƷԱ:!һֻоֲ,бҰ״̬һ,ʱ,ΨзĻҾ߿֮䡣ⰻȻ,Ҳ,ֲ,ɫеijġɫɫм֮,ϸ֮ӰΥСïܵҶһ˽ܵĻԡ,ǻعȻij嶯,һµԡȻǵ㾦֮ʡ༭:mademoiselle.sӰ:Alexander van Berge:Cleo ScheuldermanPChouseҾ־Ȩ ؾӭת ע>> չĶ <<>>챱ŷ,ôٵЩװƷ?<<>>ŷ,һ<> չĶ <<>>ߵĴ,ɫļ<<>>ò,ļ<> չĶ <<>>ľṹLoft,Ķ֮<<>>ŷϤС<>>>ĶȫIJ鿴:̫!סļԼ繫Ԣ,û֮һڰ+ľɫ,䱱ŷʽԢ,Ƹк,һ/װķ48ƽа̨ԡ,ʽͥԺ,йδݳƷ
-houseliving 90Oִʽ,ȴ̰! ʽΪ߶¥̵Ʒ,Ʒ֮ԽԽ̵ܵ,ȴ̰,ɺԵʽ,ǡǡԵĹͲĸڶȺӻҪǵ͵ִʽȻͲ,װЧͦ,־µСݻ,ֳִĸװԴ̨С鷿ʵʡȨԭ,Ȩ뼰ʱϵ!
-houseliving ˯ǰ,µ·? ˯ǰ,µ·?ķڴһ?ǰֻĴŮܹ,ڴŶӵβڵ̺ϡȻһͷ,ˢֻ硣ʱһһ,пûüϴ·ͶѳСɽ,Ҳ̶áûһطרŷŻ·?һЩҲõС㲻ò֪ ɿʰµ·ٺò,Ǵӵĸǿһ,ϸӿԳ䵱ױʡҵ,Ǵ洢ռ,ռطҲҡСӷڴβдβʵЧ!һӾ¨,ûиӵƤ¨Ǻܷ㡣:õļҾӷһ,ʺϱŷϵϵ,ҪԼҷѡʽ¼пռĻԿǷһʽ¼,дϴ·,ţп,޹Ҳ̫,ͿԹ¼,˯ǰµ·,ֻҪڸϾͿ!ɫ¼ܿȥ,ܰٴȻ,һĺɫ¼Ҳǿᾢʮ㡣¼ԱȻٲȫ,ʱ,ڼҲҪա¸˻ǹҹǽ,˵ռ,СͿѡ¸ơ:ʽ¼ܶҵĿռҪռСʽ¼ִѿѡѡꤿƶĿʽ 糿վ˳õϵ·,߶Ⱥ,Ҳ˳֡Ҫֵߵװdzġϲ·,˯ǰĶҲ־ܴȥ,Լֻ̨,ҹҲ¹߰ʵǾƵ,Ҫ浱ɴܡһְĿԵ,Щֲ,ǽǻռض:﹦ҲҪ̫ණ,һӵij,ڶǷ۶ȡµ˯¡ðŶ β һڴβij,ܷ,ױ,ϢʱҲܷŹҹ ֹؾصij㴲β,ϻƿָ˯㹻ˡInsϺܻĦҲԳ䵱β,ڴβʵá:ͬԡͶ,Ͷ,ʱβҲû!㻹ϲ˹Ҿߵɻг,װ500O AirbnbСƳܰʹֲ!,Ӹһ,˲70OļҸָ/ Leahͼ/ 程㰮ҳʶͼжά,עڼҡάӶTRENDSHOME
-houseliving լˮʵеһЩã߶լˮȣʵղ μҵıΪҪʲôҪעףΪһҪȻſЩܷЧк֢μҽɣ̲ɱţͷͬСˡ ̲ɱɢҲáɢ峣вʡҪĻľ壬ڹȺõĴезӦУܲһӰ죬СʮУһִ˯áĴ˯˯ã㱡ڲɳšԲɣӰ졣ͷӰ졣嵽Ͳá3ƻˡʹˣҽš̫Ҳɣ¹ңҹΡҲɣߡ黢ûп϶˯ܴϷҶ˯ȡݴ²ɻײʹһľ壬ľ߹ϥǣΪ˯˫ҽԺܣײ ̲ɶվӣӷ㱡ߴϲɿ촰װвƲ촰ڿ˯쾮촰оӣ׳ࣩ֮ɳӰ졣Уùӵһ¡ҲɿšָͨȥšͥͣǷǶ࣬ࡣ11ͷҪпա12Ҫڹ۲ȫլҪġλչһˣܻһλ岻ãʺڵ ϰӰϾ֣֮λһ֮գʱһӲݣ Űż٣ԸΪʺϵû˯һ𡣰żٰլɽģǹ̶ġ˶žšǬɽɽǬҶȻ֮ܳġլǬݣšſڴҪעסԪŰԪţżΪ̶ģģһһ䣬߶ÿ仯ڹ̶ġͲ̶ܿİΪΪݣΪΪ??䶯ΪͣųİΪͣΪţ빬Ϊţ룬áΪţڿţáԪǬ˳άԪ˳Ԫ˳ά2001ΪԪޣҳ㣬îǬ㡣šҪݷɽϸֵ24ɽ֮ɽ˳Ϊά֮ɽΪǬɽǬɽΪǬǬΪάǬΪΪΪ˳šţ˳ţ˸˳˶žǰްܳáһҪףҪɷȻþǰ˽ⴲͷΪͷɽУɾǣйǵȽϡΪ5ôΪΪޡǰһҪҪ䡣紲룬ΪΪȻڷ̣ںηΪţǣΪޡ䡣Żţʾ˸鲻Ǣٽ̥䣬ΪΪޣˮ˻һԵࡣٿλ䵽λľִ֮Ȳ࣬飬ӣӲԸҴšҴΪΪޣλǬΪΪ䡣бأãdz͡ΪãΪʱֱášΪΪ߳ҽΪΪޣз䣬̫̫˳̫̫ġλҽ𣬴νáҪλɵǵˣһͿ֪ϵͨ˯3º̫̫֡дСһλΪ̫꣬Ϊ̫ڴ̣һͷ÷̣ܵɵȸţҵ̫λзʱͷͷڴλϺɻԭλ˯̫λ пھ꣬һλ̫λ꣬磬ϹΪ̫λ̣ҵ̫λ簲ڴ̣ҵ̫У̫λ̫һʹôЧѡҪעסŮ̫λ̫̫꣬ɥţ̫ٷƣ££ͣ꣬3λ̫λ̫3λ̫լԢ¥һûһ졣ֵѡ췿ͬҪɷĻ־ӦĻϡ¥ļ¥լڵܣԺòòλ??¥Ƿȶ仯̫ԻȶҲȶбȱݡլ㷨ѡլ¥IJá¥ǣֻDz伪ѡլֻ¥ݿȥһ췿Դ¥µķֱӵ¥ϡǣ̰ľǣҾǣǣλľǡǣƾǣǣ»ǣɷˮǡҴμٴΣλٴΡ1¥ڽ¥Ŵ¥ţΪ¥ΧͬһΧǽڣˮΧǽ㣩Ϊͬһػڣ¥һ2λ3ԣ֮ǣ¥ԸΪһǬӾ壬ӣӻ죬ӾӾ¥룬λꡣӡ??Ϊ¥Ϊǣ˵һ¥Ϊǡ4ܲ5ʱɷԡֻһһԭǼףײ5¥£ÿֻȡһ÷λľ¥¥·λáһ¥ΪҾǣ¥Ϊǣֻһף¥Ϊɷˮǣ¥̰ľǣλã¥ǡIJΪáλӾŵ¥Ϊľ4¥Ϊᥥ·λáϣ6¥ͬҪ˫һΣ¥˫㣬ý8¥˫㣨8ȫãŲϰȫáھȵ ǻǡ߲㣺š壬Ϊ»ǡһΪǣΪǣΪǣIJΪǣɷˮǣľǣ߲ǡ˳ţ֮ǰǡ˲㣬šλҪá8¥˫㡣ľ̰ľľṵ̂ľһΪΪңͬľһΪǣΪǣΪǣIJΪǣɷˮǣλľǣ߲ľǣ˲ǡ9¥ϰ9¥ȫ8¥ķʮ㣺šԣӣҴɷˮǡһΪɷˮǡˮľľھĸȵȵǣȵǡ˳ŵľΪλľǣľǣIJǣǣǣ߲ǣ˲ǣŲɷˮǣʮλľǣʮһľǣʮǣʮǡ˫еķǺףţӻ죬λӦŵʲôΪһ㣿լ120ֽΪἰѰʮҪһɽ5ֽ5пмûдûдIJáΪ켺ɹķֽãͨϲʹߵΪɽ97ͬ֡97ͬгɷ̲֮࣬ͬ֡ģˮ۲·ˮˮںõķλˮҲΪáˮʽ٣϶µٲˮ̫õˮϴҲΪ٣ԽԽáʣɵûˡǣǣɾɾһǣҪ峺Ϊǡ̲̫dzˮ̫٣ʯͷõļ̫졣lˮˮܿ峺ģгζСеˮɶҪ֧֧ˮѷֻƽȶѡȻˮΪã˹岻ˮҪͨլͬˮˮʽˮ֣ǰˮϣˮֱլ˺Ҫˮ֣ǰˮֱ䣬ҪڱõġſػաˮķҪЩȥˮķҪխЩȥˮˮȥˮйأʯͷϰ˳ˮ֣ǰȥDZȥȥбˮᣬ˺Сֱȥ˺ˮ֣ˮǰǰһ־ǰ棬լˮ䡣ˮ֣ˮԶʮǧ֮ǰγһڵij˫أ˫ΪޡЩ˿⣬вмˮ֣ˮǰǰȥûоǰǡ֣ˮľ֡ˮʽˮཻ֯ԽˮԽϰۼΪլլˮһլ棬լһˮ֮ϣֻҪһΪַָ䡢ȸ֡ǰֱ䣺ǰֱȥΪסʮˮլΪլΪլɽΪ˫ɽСˮáֽк鷶Уɱң𡣼꣬ˮδ϶Ǭîȣľ ˫ɽУԡڴٹ١˥Ĺ̥ɽ鷶ˮͬӳˮ֡Ϊԡڴٹ??Ǭɽ鷶ϳϽ֣ȳԡ??ˮҪɣ˫ɽתɡֻɻǿɵ֧ǼףˮֱӲ飺??ˮϣ뼪λȥˮôӲλߡʮˮ̫áԪˮܳȻ·ΪˮмطǣλλλˮҲǰˮֻ۶ѡλе߸ˡȣλˮǰͿ˵Ѿܵƻһûס˳ֿġҲλڿ̣ɷλŵˮм䡣λвͬĽɽ١ϲɽ϶ࡣλɱݡţָǴţ嶼ȡƻұ߲Ҫ̫ƽط̫Сѻ߿£ебûлʹҡ壨λȥ·塢ڵȣգλλϲϲλеλױȽϸߵҲϲλ治ǷԷλķ¡λҪȰμҪףλáǷ㣬ûз£λġǷѾסլԱΪ δ ʱȿտκòãΪȿûгɱУظ裿壬壬ûСɱӳɱδϳɱڳɱڳîδɱ硣ɱδ֧Ϊɱɱɱɱй˿ɽ⣬һɱһ˽⣬ɱ˽⣬ɱ⡣ɱʹн⣬ûDzҪáδǸɱȻ֧ɣòạ́ị̣̂δ̣̣̣Ϻ̡ù˿ɽ⡣ҹ˵ķУͷɷϳҪעͷɷӳɱδδ˲áϳɱڳ˲ãɱڳ˲ãîδɱ磬˲áտμϷλļסУֳƼУîϣδͬʱһģټӦس֣áîϣмá˼îϣáɣ??ϾֵĻͷɱǿһɥеһ˶ܷլգңҪ廢ɷƵȡû⣬ƵҲɰᡣҪװޣլҪװޣδ廢ɷδֻҪȵδͿԣӼķλյҪǴӼķλˮˮۣ֮пų֮֮ˮų˵֮֮Ѩų˵֮νصѨΪ֮ˮΪ֮ˮֻӦ٣ѨӦٻһԶ͡ˮߣȻˮַãˮΪ֮ѪˮУˮ֮طᡣȻˮֽԿ֮ˮмףˮڼλ֮סˮţȥˮƵػ˿ػ˱գҪϺˮ·ͬˮΪҪбˮΣУˮʽˮߣ١ʡǡ̲lˮʽʽߣˮ֡ˮ֡˳ˮ֡ˮ֡ˮ֡ˮ֡֡ˮʽʽߣ֯ᡢ䡣ֱ֮Э뼪ʼˮ֮ˮʽˮߣ١ʡǡ̲lˮʽʽߣˮ֡ˮ֡˳ˮ֡ˮ֡ˮ֡ˮ֡֡ˮʽʽߣ֯ᡢ䡣ֱ֮Э뼪ʼˮ֮Ű˴֣ǬȻˮΪˮֺ٣˸Ǿûáȥܣ伪ȥˮף¥ǽԲȥá·ɵˮԼڵˮ㣬ȻΪáˮҪլǰ㣬Ͳ㡣ʮˮɷɱλȣǰˮλŰ˴֣ˮķλˮȥˮλǵˮɽΪҪˮɽˮɽˮΪɽˮΪӡָԪϸֵ24ɽ֮ɽ˳Ϊά֮ɽΪǬɽǬɽΪǬǬΪάǬΪΪΪΪɽˮԣмîɽîˮΪˮDzģҪʹɽɱΪɽˮжˮ:յ:˶,¡. :˶,ɢ.ˮ:յ:ò.:Ʋ,ƽ.ˮ:ɳ.ٷе߸,ݽ,·,,,ˮ,ˮ.լ,Ѫ,.ˮ:ɳ.̷е߸,ݽ,·,,,ˮ,լ,Ѫ,.ٷ:е߸,ݽ,·,,,ˮ,լ,Ѫ,.λλˮ:֮,뷿ͬס,.ɷ,ɷ,ɷ:е߸,ݽ,·,,,ˮ,լ,Ѫ,.ˮ:յ:,Ůǿ.:.ɷˮһˮˮ֣ˮۡîδˮӳˮîˮϳˮˮ۶ȥһӦˡˮδ۶ȥһӦ֮ˡλȥˮˮеŮ潣Ѳصˡˮ֡ࡢԵơ²˳ȣԸԵźţ17065117058
-houseliving ģķˮھʵã ڣҼǣڿഫˮҲвٿھǺȷжϷˮûôһɡѧɷ⽨ţΪ峯ĩ֮й˹ڵдͳĻɣѧ֮ѧִͳĻΪɡ1ǰƶҳ¡ǹĵطǰİ͵֮⣬һЩƷסլǰҪٶǮҲľ֮סլͺƷԻḻ2Ŷ̨ưܲ۲ơΪɷǴԺš̨һֱߣڱ˴ԣȥȥԲ۲ơ3סլ˶в֢סլλӦͥͬԱլβȱ𣬶ӦԱͻн⡣4ȱĸףȱϸȱСڡԺ췽λΪĸףΪǬףΪޣУҲӡ5粥ףסȥԴλɢ£λ˿6ŶԴţײʣҺãҳơԣһˡ³ྭҲԣһˣŲ壬һסҲͨ˵ġɷҲСȸɷԾǹ̬ȣٴ7ʻУ˲Բ˶̼࣬ز8ӶԴҽæ辵̡ͷɰӣױ̨ɶԴͷ9ǰ·ϣաΪɷָסլǰзεĵ·סլҶ档סլǰзɷ˥˲Ե10סլǰխɡƣǰխɽ˵լԺǽܵĽΣխ߿լԺγɵгʢøӦ11סլڶ·Ľ洦סΪ·塱ҲС·ֲǽ̩ɽʯҵ⡣12ݱܲլΪ䡱λпûкʵߴ֮˲д¡13ƳЩɰ˶ˮơˮƾۣˮɢɢָլǰ࣬λլǰˮֱйСƳ֮ƣ۲ơ14ݶΪڡ۲ơ15ΧǽȸڡסլΧΧǽӦø߹ӣӦÿȸڣ൱16ͬбһסΪˮ༤׳ɡˮδáֶ֣֮17żǮڣ18Χǽװ˿ֲû19ĹӦѰ·20ӵǣаס21ŶԿݣŮޡ22иװޡǽ϶и23λӷ룬ʹ¡24еҲ辴λլ25ѻסլλŮƬҲɰڷһϷλƬҲɰڷһһ26סլڷŸĵɷ27ڵĵӡԲҪ봲ͷ 3֮ڣʹ˶Σͷ͡28ǰ̴ס29ڲҪ̵ͱȣѪ֮֡30Ĵǰл31סլǰס32컨̫ͣסѹ33ſԲɶѷžʯرǴк˿ľʯᵼ¼34ϽDzɷžʯͷɽ35סլǰխխС֮һΪլ˶Ů36סլĻʯ¶ƶʱ˲á37סլǰɵظߣмߣǰˮȥ38ݣ麣ܣ39ͥԺӲݣ֮40ǽߣɥ֮ҡСŴƲƿڽǡ41ǰùͷ̸ףػˡ42ԣǽߴڡ43ɳһţмţಢ࣬44¯ɳ꣬겻¯ѼƣͲɰţ¯45Ժڲֲѣ࣬ݹ½л˲46̫СǮˡ47ŶԳ壬УƷλͬ48լŲߣ֪պ49סլдף·١50סլǰһҪϽǿӣϽǿŮк
-houseliving 124OԼȻִԭľ,ռ~ װ ,ÿѼǰصļװơʩĵ,Ϊװĺð߹ܶ·,ܶ羰,ȴķ羰ԼߡǸ˺ܶ,õ˺ܶ,ȴƷʵ,ҪǮĶ,ҪݻͶ롣Ǿ˺ܶ,ȴõǴ롣ΪÿһΪŬ˶ֵӵиõΪÿһڼҵ붼ӦñԴ˰Դ:ҵϲɾˬʽ,ŰǽԭľҾ;ϲռ,ռȻһ,ֻϣҵϣҲƵ,ÿһڼҵ붼ӦñԴΨϵɫ,رȾ,ȻľҾ,ͣ͵뷨,˲䱻Ⱦʵɳ,伸֯,ӡɳԵ,һֲ,,ĽҲ~شʹľԪ,һžܸܵȻ,,ʵԺֵǰġIJúܼ,ӵƾߵζر,ԼʹùȲ,Ȼ,ҲܽʡռשǽֿĴȻľɫ,ֻȻɵ·顣ɫ,ȥdz,Ȼñ,ʵ!ױ̨Сϲ,غܶŮҪһ!鷿ͷͯС,ǺӿֳɳСظʪĹ,שѡÿַԴ: Ӱ:Ʒ֧:ɽҾ,ս,ľ,ŵ˴ש,籲,ʦ,¬ɭذ,ɭ װĺð װź:decorative-designάʶӹע
-houseliving Ҿߵijߴ,װҪзִ! ӭעƽ:ȫװޱ,ÿһƪװ!ֳļҾ߳ߴ,Ҫܳ(ͥе)Ҿ߳ߴ,һЩȽϺļҾ߾Ͳ˹!,ÿҾ߳ʵеijߴ粢о,ܵijߴο!λѡʱ,ʦȸݻͳߴ,岼ַ!һΪ뻧źĵһռ,ҪְܾǻЬ,ЬЬرȽҪļҾ;1Ь:40-60cm,߶40-55cm,һЩС,ҲһЩ25-30cmֱСԲ,ΪʱЬõĻ,Ҳͦ;2Ь:ЬijߴҪǽ,ǶװЬļͥ,߶һ㶼ǰԼһʹС,ֻҪҪЬĽһ35cm,ȻЬλҪͳѥλ,ϳЬŲµ;ߴѡ,һҪݿɳ輸ӹ岼,λҾ֮ǰ,Ҫ滮Ҿߵijߴ,ŷֲþ!1ɳ:ٵɳ:80-95cm,85-90cm;˫ɳ:126-150cm,80-90cm;ɳ:175-196cm,80-90cm;2ӹ:ȸݿǽ,40-45cm,߶40-60cm;3輸:60-180cm,45-80cm,40cm;4Ǽ:70cm,60cm,ݷ;һ˾Ͳ͵Ŀռ,Էʱ̫,̫Եÿ,в˲,˲IJҪݼͥ˿!1ĸ߶70-76cm,Ļݲݿ,һ㳤70-240cm,85cm;ԲĻ:50cm80-90cm110-120cm;2:76*76cm,߶45cm;3ƹ:ƹĸ߶һݰڷžƹλõijߴ,һ30-35cm;4ͱ߹:ȸݾ,40-60cm,90cm;5:Ҫǽ45-50cm,߶45cm,ȵĻһʵ;ġΪĿռ,ǸƵռ,ÿһϸƶܻδľס,ijߴýǡ1̨:60cm,̨70-80cm,ϴ80-90cm,ĿԸʹߵ߶;2:ĽһСڲ̨,ȸ߶̨IJ;3:30-35cm,߶ȵĻ,ײ̨75cmΪ;Ȼÿųߴ粻70cm,ž;塢Ϣ˯߿ռ,ļҾҪǴ¹,Ϊ˱ҿռʶ,ijߴҲҪպù!1:200cm,120150180200cmȹ,45cm;2ͷ:40-60cm,35-45cm,50-70cm;3¹:60cm,߶ݾ廧ͳߴ;4ױ̨:40cm,70cm,80-130cm;鷿ִС,֮ܶ,ֳߴͲ,ҪܹƷҾߵ鷿ļҾ߳ߴ硣1:75-80,55-60cm,һ㵥110-120cm,峤ȻԸ鷿ɶõ;2:45-48cm,55cm;3:30cm,߶30-40cm,35-80cm;ߡϴ衢Ͱԡ֮Ҳ֪òҾߵķ,ЩƽҲ˳!1ϴ:80-100cm,48-60cm,68cm;2Ͱ:75cm,35cm;3ԡ:122152168cm,72cm,45cm;ˡ̨̨һϴ»ϴ֮ijߴ,ϴ»صϴ»Ļ,ô߶ȻҪһµ,˷Ųȥ!1ϴ:60cm,߶75-80cm,ȸݾ̨ȶ;2ϴ»:ϴ»ijߴ,ע߶ȶҪһijߴ,ϴ»ȥ,ϴ»ijߴԲοﳣн!3ɹ:Ľ30-35cm,ϴ̨75cm;̨߶ɹ,ôԸ;(¹60cm,Ǵ30-35cm);֮ǰ,ƽҲһƪڼﳣ,ȤѿԿһ¹~ںװɻ,ݴ!ӭ·Ķ!1ľשΪʲôԽԽ?2ҾҪܰ,̺?3̨,ҪЩ?ÿһƪװ֪ʶ,ӭƽź:gujianvrenƽԭ,ںתػظתء
-houseliving լ,ȫʽʱ! йĻǿƻعʱҲÿһλ˵ʱDZ,ڷزںܶඥĿתʽDT.ҷʽ־1 :˹ƼŻǻõƳľլĿʾΪʽʽԺ,Ԫض,שʯġַͭḻIJα仯̩ɽʯʵؼӲ,,ӡԾ,ֱӻԭ˴ȻۡĿѡ˶̩ɽʯֲ뾰ʯķô,ֳɽˮ⾳̺ͭصĶ,ŶȡǶԲͬͭνϸͼӹ,شĿռĶϡ2Ͼ³ кɽ:Ϻ徰³кɽĿ,ȫ´¥(ɽż),˵ڲȡ2500֮,νѧȡϡΪ³ϵϾصĵڶƷ,³кɽõؿʼܵĹע,ϡɽۻ,кɽһȫµĶ--йԺӡԺ뻧,һһ;Է,˺һ;,ͨġ3Ͼ³ ɽ:ĦλϾ·ʯʨ·㴦,ǧϽɽ´,·ǻʼ,ֻдٹˡſɵ˴,ѰղڡĿѡַĿ,ĴɽˮȻ,ڴﵽ֮⡣ʦššȡ,йʽ,йʽ,ӪݽǸ,űйͳž,ṹ,ˮƽ,ʵڡ4Ͼ ö:ɽˮȵԡȫΪƸ, ö̾ڳǶϽɽ,ļȻ,ֲ˴ϾصԪ,ͩӣ÷ֵ,ýζӷïľ֮алƺ,ϸ֮,Ӫһʡܡ̬ռ,ԹŶšԼе,ڸž۵Ƶӳ,,ҹ,ů,İ5п ɽZ:ʵʱĻʼǸĽ,ڹܺͲϳֳǿҵׯءʽظСȡ˴ͳַ,ռȡ:Ժ䡱ؾַۡ,ΡϵIJϽийٵĵӡ[ͷ][ձ][ǽ] һĿռϸ,֤ĹӺݡŴ˼ɽˮ,[⾳][Զ],ϲɽˮ֮,֮ǽȻõձڡǽ桢ͤ¥ǰӪء仯ƽ档6̡̩йԺӾ:̡̩йԺλڳֶ,侩˺Ӻ,81000O˺ԭӵ,Ȼij̷,ʹԺӳΪĵһдԺйԺӳּ̳ж־,ַϴﵽȻ滭ѧͳһԺǧ,̨ͤӳˮɪ㡢ʫ黭⡣뾲ϡʵֱ,йСǽͥ,ͳԺ佨Ļڡ̡̩йԺӡ,ԺΧϸԴ֡ȫȫľֵ,ƾװɽˮ,չйԺߡĴ⾳Ӳ鿴Ķ ľդʽװ,ܶѶ,ܴʷʬꡱʽͥԺ,ŵԺһʽ,鷿ƽⶾ ˵ʽʽװλ,ԽŵԽʱһֻ,һʦ,һ߹50ȸ,ˬǸڡͬʽϨҾװչ+ŷ֮ѧ ˽
-houseliving 120Oʽ| 18Ӳװ,װ˵ʮɶ! ʾ:ĩβȡ4+ÿ5ɰļҵĵڶ,ڵһװһͷˮ,ζ˼ִݡźӵij,ԭ70ƽķӸס,رǶĶ֪ȥ,ķӾüˡ120ƽ,ʽ,úʮֺŶ~Ϣ:ʽ ::120ƽ :18žܿǽϾѡĸŵװλ,ϴɫĴש,ʽζŨ,ʧҵܰСӲ?ˢ˻ɫ齺,мĸоǵɵ,ûнɳڷŵƮĵط,ճռڷŽǹ,⡣Ȼûд̨,ƮҲСʰ~ɳ,ǽҲܼ,ܸҵĹСŴһ9,ϱԺҲõЬӺ·֪ȥˡӻǽ˸лȵ,ռһȤ,ҲϼСڼ,Ŀһôһ,֪ô?ʽ,ȫðɫ,һռԵøɾˡǽСשװ,Ǹ뷨Ŷ,ǽDzŶϱ˵óԷζһЩ,Ͳַͬ͵,ɫҲһ,ЧǾû?Ȼһ,ڵ滹Dzͬġŵ,ϸŵ,дһݳȡΪҸ͵ĵƾ,ҿǹԱġҡܰ,ԵµĴɫϸŵĴǽֽ,ռиǿҡ¹ɫʹɫһ,ڸŷ,ǽֽѡñȽܰķɫ,ʹռӵܰTIPS:ѡֽͬʱ,ҲҪ˽һ»Ĥ(ǽ)ۡʹù,ǻֱӰֽʩͺЧԷķԾͲһ,СһЩΪ,ҵתǵǽ,Ʈ,֮ءõԡ,ϴֱ̨,滹רһС,ŷЬƷһ˵ȫ㹻,ԭСƮŷϴԡƷ,ǽúͳһСש,ɫº,Ҳܳȡʴ112ƽ鷿6wװ깤 ȻԼĽ120OԼŷ鷿,㿴Ҳ˵ÿ130OԼʽ32,ھ˵̨,װ˸ͬ124OԼ25,ЧôþȻ˵ֵ,Ȧ!!Ҽʹľذ ²ϲENDװʿں̨ԻϢСἰʱظһ!װװü,Ҹ↑ʼסάע!ԭĶȡơ
-houseliving 316ʽ㾡ԡҿռ䣬õװ֪ʶ ԡҼҾߵѡں̶ܴӰԡռЧʡƺڷŵõļҾߣԡƷҲȵؽʡռ䣬ҽԵҵĹߵʵãյõӾЧ1ʽñ߽ǿռļҾߺܶԡһijһǽûװƷռݣʱǽĿѡһʽɹǽܹòԡƷ2ʽѡһõļҾΪӭϣܳÿռҪںܶԡҼҾ߲һܣͼʾΣпԴĸӣһǾӣڻױ滹ԷһЩƷһЩĴĹҲˡǽ·ռõ3ʽǽ·ռԡﰲװǹǽʽ̨ʽ裬ô·ռ˿õأ氲ÿշƷԡҹdz÷ʽܹڱ·ĹߵӰռе壬ԵúܹڽռʹòͬҾߵ4ʽڽռʹòͬҾ
-houseliving 70ƽִСʺСڵļװܰ ˵Ļ˵һ䡰СϷӣûеݣÿ컹¥ݣΣϷӵĸֱȽϲװв˲ٵǽ壬ǿɹȽϻ谵ôʦΰСķӸһ黳ƷλˬǿСأ棬һ~Ϊͽṹ⣬˶صĴЬȴҲһġɼǿİЬߣֻһסķ˵Ҳ㹻ˣ뻧Ŵ龰ӳDzԼ˿ײɣ˴﹦ܣͬʱҲʡ˿ռ䣬ԭСIJòôӵpsĵƺƯľ?dzȥӽǣòΪϣ˰̨ϣַʽĸϣСĿռ䡢ӾϿÿռ俴Ҫǿù߸ͨЧؽ˿ɹⲻõ⣻L͵IJɳߵǽˢɫ齺ᣬһڰһԵúС£ҲرԵƷζиԭľɫ¹Ȼ࣬ΪһƷȿװΣҲɣһãƵĵӱǽԡʱУΪÿĹ߸ԴǽҲһزʱɱø˽ûʱѴӹߣ̨ϲ߷ױ̨ұ˲ʽñ䣻ǽˢůɫϵƹ£ӪһܰʵҷΧԴԣƳףƮ¹+ȻʹǺܷ㣬ɻ·żһιҲԵòˣUͳ̨̨һԵúʵãֱڰ̨Ͳͣ˶ʱɰѲ˷ڰ̨ȥ䣬ԡϴ̨Ͱһϴ»صǻӵƽ沼ͼϲǵĹעС࣬װҾڴ
-houseliving һס¼ ܰ ԷƮ ÿʵ ܲס¼ңһҪʼҸ¼~~ߣȥؽŲԶDzλˡεѡɫԭľʽʵáûɶװμģͦÿġƣװζͦġʵɳʵõIJ輸ӹ䡣Ѵߺܺã ˲ռ˲ءڴλÿͲСǿɳŽȥͺЩӵˣѵǽǶȵ⡣ɫĶƳڴŰԵʮֵĿƯǽשѡDZȽůɫģƵijɲٵĶԣĸķ䣬ʵûʲôɹһãһƳƮλãÿĹǽǽֽÿ临ʽһζԣǵķ䣬䶼ͦģһѴƳƮλãʵûۣܲƣҴĴ̼ʵûͯѡ̵Ĵ̣һͷʵáǷɫϵģÿҸرĴС鷿λãѡĶʵûͦÿģص㻹ˣмͦտģλôŷҲҲ泩䣬ϴֳ߿λͦģöɡŽȥԡλã˸ʪ룬ͦõġָߡװϲװУ10000װްͼ·עŹںŻȡѯʽռװޣrskjzx
-houseliving ͬѧװ·18Ч͵֣ҾûͺƯ ·Ӳװװϣɣ͵ȼҾҵ볡вּҵѾ˵ˡͬѧװģӲװ+װ+Ҿҵȫзü18ι۶˵ƯͬѧûǮװޡҲ͵֣̫ˡͲȫͼж˱һˣ+´ʯʵĴשʱлҷdzĸ߶˴ŽһСϣȻոDzˡͬѧǽţȿʽáұȽϲһʽĮ̇ƽʱ³Ƚ٣İʽijһɹdzIJIJɹܴڳӱǽɣѡʮıֽʱֽԼɱӵˣǵӹûȷڵϿЧ濴ֽ3DӡЧܲԵģĺܹƵͬ˺ö࣬ʡǮֺÿֶΪ̨ɹ·ĵطͬʱҲ˳ɿռ䣬ܶƽʱҪõĿͲмȣͨԡҺ䡣ƾֵɣ϶ԱȺþòѡģ۸ҲܶΪʲô¹?ʱûһҪƶģ̳ûкʵijߴ磬ľġûëǷdzġϾʱװЧͼװʱбעŹںţȫװ ÿʰװԣ
-houseliving 160Oʽʽ,ȴŲһĹ :ʽ:160O:ʽװκܾ,ܾ~ӱǽװκܼ,ȴͿҾߡӶѡʵľ,۸ǻ߶˳˻ɫǽש,ɫϲɫһ¥ĸĸ,Ӥ,ͲıСˤ,ɫıֽܰһС鷿һͯ,ѡõĶǻIJϴ鷿߶˴ϵ,ԼĹҾװ|༭δID:vipjjzxάע
-houseliving ȫ-,װЧͼ ,ռ䡢ɡ!ҽһҾ,һԽ,ǿƽ!,鷿һȽС,,Ͳ÷Ŵ,żСס,õѡ,һĴ,ΪĿͷ,ΪҪĹ֮һŶȻӣҵӡĴ,ӪȻܰԷΧնĿռ䲼,дһ,ÿҲоҵܰ˵ijŶ~Ʈ,̫ƮһС͵,Ͼʱڴ̨ˮ,ƾ档鷿,ûϷһת,Эͳһ,,س,ʹճ칫Ķӷ㡢ġ졢顢ȺȲ,Ƿdz¡ϷΪ,ǽ߰ν,¡Իƺײɫ,¶ŷҾӷ,鷿Եշʮ㡣ɴ,ǿСƳ,·ΪɻƷĴ,Ϸװι,ͷŸ,ճ鼮װƷͳͳɽȥͳһ,ʱдĺô,ռĶ,˿ռĴɹܡϽҾؼ!
-houseliving 4ײ3Loft? ䷿Ƭһ! 4ײߵ12Oô,ôܷļֵ?ʦ@¬籬12m,߽˺Ƭ,קſŵը!ʶϢ::Ϻ:12m:Ӳװ4w װ1.5wͼǰһ,ֻ2.35,5,4,䱻ָ2,С,,ÿ߲2,ʹڵIJɹdz,Ψһ쾮ɹĴȴռ,ϷҪ24Сʱơڶ,С,ķ,ǵ,ڵIJֺչ,ϼסլֻ¥ݼǻ,ಿֶľṹ,ҷ˿,涼Ǹǽ,ûг,Ψһ֧õ컨ľ,ڽṹҲһȫµսһ ڲɹ,ǵIJǰŲĶͷӶѲɹų,οĿռǴֲ,øĹ߽,ĿռҲʹڿռܲԵôѹ֡ԶסΪIJ֮,2.3ȴ4ײߵĿռ,ռϵ̽ΪƵĹע㡣ĿռͲκܿ˳˼,ϣ㡱Ӱ췿IJɹ,ͬʱ߿ռĿռܡṹ֧õֻе컨ľ,Ϊ˲ƻԭеĽṹ,ǾһȫµĽṹϵ,ṹԼΪһϵ,ֻҪԭľṹͨ½ṹս,Ȼһ֧ϵ,ǷҪļܹ,ϣ,ϣһֽṹʽͬʱ,,ռ,װ,,Ҫ;ֲļҾߡҲǵһΰѽṹΪһƵ,ȥۺϽ⡣һֽṹϵ,ͨн,ֳеԵĹ,ʵʩϸݲͬλѡ2cm,4cmķͨΪҪIJϡʩǷԭĸнṹ,ǾҪһֽṹ,֮µĽṹӡԭĸĸּܿǵͰȫ,ǰҪĽṹֳ4,4ڳҶƶ,ֳװɡṹGIFͼֽṹľ̶еIJֶƴɺ,ϰ3顣еIJֶƴɺ,ƬձߡװLEDƴװëʽ۱֯ڵ㡣вв¡ǶȿԿһͶҡΧɫɫϵƴռ俴ӿ,¥ﻹҪ,֮ǰΪ˾ܱ֤ͨжû¥ݿ,֮ijһЩȥ,ȥͲʹˡһ¥¥ЧȻ3,ռвͨСһ¥Ͽ¥Ч,ûкƬӸ!Ӷ¥һ㡣һϢռ丩ӡƽʱ俴ȺȲ,Ǻġһ㹦,߲&书ܡҿռȻ,ںú,һ˯ĵط,ʵԡռ,˯ڵϡӵ¿Чһ϶㡣·......ڽŸл̫áӶ㡣¿,СĻҪŶ,ԼҵҪʦ@¬ƽ̨תػ,ϵź:xiongxiaomei01ͼƬδͬ,ʹ,Ȩؾ ˱˵ĸĶ?ô,Դֲ֪?;,ʱһ˼ҵҪ48Сʱݸ˵װټһļ참¬Ϊɨά ...ϰ,ԼһլҵɴһȻĶļ- END -ĶԭIJ鿴Ʒ嵥
-houseliving 20̨,ȴ·?! ʮǰµ,ͻʫ»,黳ѴǮdzʱ,ҾڷdzױǮĴáҺ,С͵̨,÷ⴰܰСռ䡣ֻ70ƽС,̨1.3,3ɡôúһСռ䲼õ?ֲֻ̨ݡȲ졢ɹ·?ⶼõ÷ʽԼ̨,ͼʵκ⡣Ҫһݵؽɹ·,ǻɻ,ǧǮʡ1/8ƽˡ̨;,ֹ·DzõϾͿʼ,Ҫ̨ϺȲɹ̫DzԼļʱ,Ҫһʶ:ҪʲôĹ,Ҫôʵ֡еĻ̨,ôкͼȫֿ,Ҳڴõ¿ˮ̸ЦˡеĻȻ̨,̵,̨ڵȫΪ͵,̨,ֻܷһŴƲ̨,Լһ,ĿռҪʲô,ЩطʲôҾߡ10ҪڼʵֵĹ,ɹ·ȫҶ,ʲô©,Ǿ˵ʵڰڲ,ֻ̨ܽˡҪDz̨,Щõ,Ǿ̫!һʲôԵ̨ˡ̨ͬ,ſɲһרҵվߴ,̨ʲôʽʽ,ÿͶӰʵô,Ǿǿ̨ĸ䡣ֵĹڻ,Ǿ̨ڿһ,ٲֵĻ䡢鷿ϡЩ̨λòһ,;Ҳһų̨,ʲΪõѡˮ,ɹҲհ,ʹܷ㡣ҪdzСò,ҲԿǰ̨ϲʹáⲿֵ̨ͳһ÷ˮ,שˮ齺,ࡣſ̨,ΪɹҲ,ѿӰɹ,·ô,Ҫڵߵ,ҲΪɹЭ֮,ΪͲ,,ϵ̨һò,һСӾͺą́òͲ̫,Ϊӳ߹ȥЩԶ,ǿԲκֲǡһñˣĵ̺,ȫIJɹ⡣˵˵鷿̨,ɹô,ΪҪӲȥ̨ϡҪ鷿ǼͥԱ,ҲΪ鷿,ø̨,߷һ̨ܲ鷿ֻһ,ǾԼⲼˡҵ̨,ӦǼ˽ܵĽ,ҵ˶ռһҪȥ̨,߲,ұӦе˽Ҳ˵,̨ôȫԼ,ȱʲô,̨ܿʲôܡֻDz̨֮ͬһЩҪע,ʹôʡС̨ܵһ,̨ͬʱеֹ,·ֻ,߲ͻԿƪ,ÿռĵӴҲ̨ϡⲻ̨,Ǹֱ̨һبŲ:˷,ҲÿϧرԵһСͿõò,㶫ʪĻ,ݺݵظϷá˵һơⲻ̨,ǵÿԼⴰֻ̨Ĵ,൱ڰ̨,ֻǿ̨ܻӺֳռĻַ֡,̫㹻ļͥ,߾̨ûʲô̫;֮,ܹ֤,ȥɹܡɨķ,Ҳשˢˮ,װʽһ,(Ҳ)ʡһǮʱ,ڷ̨ʱ,Ѵȫʱ,ͨЧų̂ʱһáⴰַŷ̨Ĵ,̨֮Ҳһšķ̨ʽ,ڰʮǰϷö,Ҳĺôĺô,,ͱЧõȼ˳̨鷳,̨ܹ֤Ķ,Ļ,ͨܵһӰ졣ڴĶֱò,Ӱɹ,Ϸ̨֮仹һǽ,ǽϿ̨ȫʹ,Ҫ÷ˮ,ð̨ڽӴIJܷ,ֹˮࡣ̨ϵƷ,غݿ̨,һ軨̨϶ľΨһĺôȴܾ:һ̶ȽӽȻĽ,þþӳеҸһ˿˿ӵԼͥԺĿ֡˵˾:ԸԸΪ?ȵ,һϵ۵Ҫ:̨Ҵʵⲻ̨ȡڰѲ̨⼸ƽ,̨Ļ̨ȷʵ,ǺڻûаëǮϵ,˵ļûһ˵,̨쿪Ŵ,ǺûҲûκײڰ̵ש̨,dzࡣЩԭ̨Ȼк̨ܶҡ̨Ĺ̨ij,Ҳ˵̨ļ̨ԡҵĿ,ôһЩʵÿǿǡ©ˮ:ûˮϵͳ̨,û취ϴ»ϰѳء:Ϸ̨ʹõĻ,Ҫպ֮,ڱ²,ܹһ,Ҫdz䡣סլIJ˾,ҪijҪ,ҲԼһǽ֤˽ͱ¡:ӽ濴,Ҫ̨ǵ,ͽСʽ̨,̨ȫ¥,û֧ŵ,ȼططŴ衢ס:̨ij,Ҫľȼ̡ȼõ¯,̺ܶͥѡֱ̨ϴŷšôʵܲ,Ⱦ˴¥,ֻӰ¥¥µھӡ̻̹ǣ̫,ӰЧעѴ,ͬ㡱Ҵ,രڽĵ~ʱ,ҵ~һļװź:happysun328Ӻע˾ְСʵ:ظӡ,ø㽲̫ζ!Ŵһƽ̨@Ѵϵ010-67898001Ͷ:so@isouchuang.comվ:www.isouchuang.comÿջ:һζļҵĶȫġô˵~
-houseliving Ըһ104ƽСѣ18WĴ磬Ч £18Wװõķӣdz⣬һУԼļңŻȶоĴ˵ĸоҽܽǿʽװDzڿԱߣڼ˽ԣɾͺǶͯкܿɰȻҾ̫ˣǼȻѡʽŪһʽİDZ߰ѡǼĻͼʦ滮ĻǷdz
-houseliving ̨ôܶ࣬Ƕ˷10.12 ̨зʽҲаʽҲ¶̨̨ʲô˶죬ϴ·鷿ңȵȣص㿴һ̨Ĺܲáľذ裬һҲУƷ˽֮ҲСտпռ䣬ʱȲ裻Բʱڤһ¥̨ĺҡκϡ̨רΪҹɶҲżʱûǻɡϰĵطһأˮٺòСӾ͵̨ϴ»ټһϴֳأҲȻҲ˱˻ѽľذ壬DZһ¥̨Ѿˣϧ̫С̨̫֪ʲôãҲգɰɣǸڿˣɳ̨ܰˡӻ취ʡռ䣬ֱɵֱ̨ӿԴ˯ˡиõķ̨ҲľǽϲֲﻨݣʵӣӸ̨鷿ˮ̨Էϴ»ϴͿҲһ͵طһֵ÷ϴ»ҲǿԵġ¶̨ϲݵˣֲ̨С;͵ð̨õ¡ɿռ䣬̨ҲͲˣ̫þСпռ䣬ֱҲǿԡĻⷿٺòҲ㣬ֻҪ¡ϲľƷĿּͥϴϴ̨¼йԣּǫ̃˵ô࣬ô࣬֡˼̨ĸоʵֻҪ滮οȫ˼ҵЧȻҲзԺ²ۣȵһ˳ӻϣкΪ
-houseliving ۽ʽ,֮ ǻ۹ͶʽΪÿ˶ʽĻܶ,Ʒζֵ۽ȵ˸,Ӿʽ̵̺ı¶ԳɳⲻĵƲܾ۽ǵ۹ִ֪,Ტõữƴⶼʽռ䲻ͬάȵˮīʸڿռȾҲжµľ͵ƾɢŹâʽĿռŴķΧִеɳ˿ɫԾ鶯ڹ˿ȴƷװѡ̺ʽζԪڴռ빹ִȥȥһĸвζеĿռ̬ľĵʸԭŨɫɫԵʽдʯذ巴ͨɫƺһжƵĸոպ,ֲʧʸпռɫƲ,Ҳˮƽ߷ΧɫȫȻչ˿ռĵдֺʽص֮,ҲӵȨʽռḻԪ辰ֲ,ŵıIJóǽİ뿪ƶȫȻصdzɫ֮˷ڴߵ˻ĵƽѰʵƼʽ,ҲʽĶһռůʸԭĸжûйװҲִܵҾƸߵʽֹǾзȸевںаĿԸ۽ʽƵԭǵﲻŶҼֵ,йĻͬͬҪ,Ҫڵ
diff --git a/NLP/16.8 BERT/download_glue_data.py b/NLP/16.8 BERT/download_glue_data.py
deleted file mode 100644
index 56b8860..0000000
--- a/NLP/16.8 BERT/download_glue_data.py
+++ /dev/null
@@ -1,137 +0,0 @@
-''' Script for downloading all GLUE data.
-
-Note: for legal reasons, we are unable to host MRPC.
-You can either use the version hosted by the SentEval team, which is already tokenized,
-or you can download the original data from (https://download.microsoft.com/download/D/4/6/D46FF87A-F6B9-4252-AA8B-3604ED519838/MSRParaphraseCorpus.msi) and extract the data from it manually.
-For Windows users, you can run the .msi file. For Mac and Linux users, consider an external library such as 'cabextract' (see below for an example).
-You should then rename and place specific files in a folder (see below for an example).
-
-mkdir MRPC
-cabextract MSRParaphraseCorpus.msi -d MRPC
-cat MRPC/_2DEC3DBE877E4DB192D17C0256E90F1D | tr -d $'\r' > MRPC/msr_paraphrase_train.txt
-cat MRPC/_D7B391F9EAFF4B1B8BCE8F21B20B1B61 | tr -d $'\r' > MRPC/msr_paraphrase_test.txt
-rm MRPC/_*
-rm MSRParaphraseCorpus.msi
-'''
-
-import os
-import sys
-import shutil
-import argparse
-import tempfile
-import urllib.request
-import zipfile
-
-TASKS = ["CoLA", "SST", "MRPC", "QQP", "STS", "MNLI", "SNLI", "QNLI", "RTE", "WNLI", "diagnostic"]
-TASK2PATH = {"CoLA":'https://firebasestorage.googleapis.com/v0/b/mtl-sentence-representations.appspot.com/o/data%2FCoLA.zip?alt=media&token=46d5e637-3411-4188-bc44-5809b5bfb5f4',
- "SST":'https://firebasestorage.googleapis.com/v0/b/mtl-sentence-representations.appspot.com/o/data%2FSST-2.zip?alt=media&token=aabc5f6b-e466-44a2-b9b4-cf6337f84ac8',
- "MRPC":'https://firebasestorage.googleapis.com/v0/b/mtl-sentence-representations.appspot.com/o/data%2Fmrpc_dev_ids.tsv?alt=media&token=ec5c0836-31d5-48f4-b431-7480817f1adc',
- "QQP":'https://firebasestorage.googleapis.com/v0/b/mtl-sentence-representations.appspot.com/o/data%2FQQP.zip?alt=media&token=700c6acf-160d-4d89-81d1-de4191d02cb5',
- "STS":'https://firebasestorage.googleapis.com/v0/b/mtl-sentence-representations.appspot.com/o/data%2FSTS-B.zip?alt=media&token=bddb94a7-8706-4e0d-a694-1109e12273b5',
- "MNLI":'https://firebasestorage.googleapis.com/v0/b/mtl-sentence-representations.appspot.com/o/data%2FMNLI.zip?alt=media&token=50329ea1-e339-40e2-809c-10c40afff3ce',
- "SNLI":'https://firebasestorage.googleapis.com/v0/b/mtl-sentence-representations.appspot.com/o/data%2FSNLI.zip?alt=media&token=4afcfbb2-ff0c-4b2d-a09a-dbf07926f4df',
- "QNLI":'https://firebasestorage.googleapis.com/v0/b/mtl-sentence-representations.appspot.com/o/data%2FQNLI.zip?alt=media&token=c24cad61-f2df-4f04-9ab6-aa576fa829d0',
- "RTE":'https://firebasestorage.googleapis.com/v0/b/mtl-sentence-representations.appspot.com/o/data%2FRTE.zip?alt=media&token=5efa7e85-a0bb-4f19-8ea2-9e1840f077fb',
- "WNLI":'https://firebasestorage.googleapis.com/v0/b/mtl-sentence-representations.appspot.com/o/data%2FWNLI.zip?alt=media&token=068ad0a0-ded7-4bd7-99a5-5e00222e0faf',
- "diagnostic":'https://storage.googleapis.com/mtl-sentence-representations.appspot.com/tsvsWithoutLabels%2FAX.tsv?GoogleAccessId=firebase-adminsdk-0khhl@mtl-sentence-representations.iam.gserviceaccount.com&Expires=2498860800&Signature=DuQ2CSPt2Yfre0C%2BiISrVYrIFaZH1Lc7hBVZDD4ZyR7fZYOMNOUGpi8QxBmTNOrNPjR3z1cggo7WXFfrgECP6FBJSsURv8Ybrue8Ypt%2FTPxbuJ0Xc2FhDi%2BarnecCBFO77RSbfuz%2Bs95hRrYhTnByqu3U%2FYZPaj3tZt5QdfpH2IUROY8LiBXoXS46LE%2FgOQc%2FKN%2BA9SoscRDYsnxHfG0IjXGwHN%2Bf88q6hOmAxeNPx6moDulUF6XMUAaXCSFU%2BnRO2RDL9CapWxj%2BDl7syNyHhB7987hZ80B%2FwFkQ3MEs8auvt5XW1%2Bd4aCU7ytgM69r8JDCwibfhZxpaa4gd50QXQ%3D%3D'}
-
-MRPC_TRAIN = 'https://s3.amazonaws.com/senteval/senteval_data/msr_paraphrase_train.txt'
-MRPC_TEST = 'https://s3.amazonaws.com/senteval/senteval_data/msr_paraphrase_test.txt'
-
-def download_and_extract(task, data_dir):
- print("Downloading and extracting %s..." % task)
- data_file = "%s.zip" % task
- urllib.request.urlretrieve(TASK2PATH[task], data_file)
- with zipfile.ZipFile(data_file) as zip_ref:
- zip_ref.extractall(data_dir)
- os.remove(data_file)
- print("\tCompleted!")
-
-def format_mrpc(data_dir, path_to_data):
- print("Processing MRPC...")
- mrpc_dir = os.path.join(data_dir, "MRPC")
- if not os.path.isdir(mrpc_dir):
- os.mkdir(mrpc_dir)
- if path_to_data:
- mrpc_train_file = os.path.join(path_to_data, "msr_paraphrase_train.txt")
- mrpc_test_file = os.path.join(path_to_data, "msr_paraphrase_test.txt")
- else:
- mrpc_train_file = os.path.join(mrpc_dir, "msr_paraphrase_train.txt")
- mrpc_test_file = os.path.join(mrpc_dir, "msr_paraphrase_test.txt")
- urllib.request.urlretrieve(MRPC_TRAIN, mrpc_train_file)
- urllib.request.urlretrieve(MRPC_TEST, mrpc_test_file)
- assert os.path.isfile(mrpc_train_file), "Train data not found at %s" % mrpc_train_file
- assert os.path.isfile(mrpc_test_file), "Test data not found at %s" % mrpc_test_file
- urllib.request.urlretrieve(TASK2PATH["MRPC"], os.path.join(mrpc_dir, "dev_ids.tsv"))
-
- dev_ids = []
- with open(os.path.join(mrpc_dir, "dev_ids.tsv")) as ids_fh:
- for row in ids_fh:
- dev_ids.append(row.strip().split('\t'))
-
- with open(mrpc_train_file) as data_fh, \
- open(os.path.join(mrpc_dir, "train.tsv"), 'w') as train_fh, \
- open(os.path.join(mrpc_dir, "dev.tsv"), 'w') as dev_fh:
- header = data_fh.readline()
- train_fh.write(header)
- dev_fh.write(header)
- for row in data_fh:
- label, id1, id2, s1, s2 = row.strip().split('\t')
- if [id1, id2] in dev_ids:
- dev_fh.write("%s\t%s\t%s\t%s\t%s\n" % (label, id1, id2, s1, s2))
- else:
- train_fh.write("%s\t%s\t%s\t%s\t%s\n" % (label, id1, id2, s1, s2))
-
- with open(mrpc_test_file) as data_fh, \
- open(os.path.join(mrpc_dir, "test.tsv"), 'w') as test_fh:
- header = data_fh.readline()
- test_fh.write("index\t#1 ID\t#2 ID\t#1 String\t#2 String\n")
- for idx, row in enumerate(data_fh):
- label, id1, id2, s1, s2 = row.strip().split('\t')
- test_fh.write("%d\t%s\t%s\t%s\t%s\n" % (idx, id1, id2, s1, s2))
- print("\tCompleted!")
-
-def download_diagnostic(data_dir):
- print("Downloading and extracting diagnostic...")
- if not os.path.isdir(os.path.join(data_dir, "diagnostic")):
- os.mkdir(os.path.join(data_dir, "diagnostic"))
- data_file = os.path.join(data_dir, "diagnostic", "diagnostic.tsv")
- urllib.request.urlretrieve(TASK2PATH["diagnostic"], data_file)
- print("\tCompleted!")
- return
-
-def get_tasks(task_names):
- task_names = task_names.split(',')
- if "all" in task_names:
- tasks = TASKS
- else:
- tasks = []
- for task_name in task_names:
- assert task_name in TASKS, "Task %s not found!" % task_name
- tasks.append(task_name)
- return tasks
-
-def main(arguments):
- parser = argparse.ArgumentParser()
- parser.add_argument('--data_dir', help='directory to save data to', type=str, default='glue_data')
- parser.add_argument('--tasks', help='tasks to download data for as a comma separated string',
- type=str, default='all')
- parser.add_argument('--path_to_mrpc', help='path to directory containing extracted MRPC data, msr_paraphrase_train.txt and msr_paraphrase_text.txt',
- type=str, default='')
- args = parser.parse_args(arguments)
-
- if not os.path.isdir(args.data_dir):
- os.mkdir(args.data_dir)
- tasks = get_tasks(args.tasks)
-
- for task in tasks:
- if task == 'MRPC':
- format_mrpc(args.data_dir, args.path_to_mrpc)
- elif task == 'diagnostic':
- download_diagnostic(args.data_dir)
- else:
- download_and_extract(task, args.data_dir)
-
-
-if __name__ == '__main__':
- sys.exit(main(sys.argv[1:]))
\ No newline at end of file
diff --git a/NLP/16.8 BERT/modeling.py b/NLP/16.8 BERT/modeling.py
deleted file mode 100644
index 66b0de6..0000000
--- a/NLP/16.8 BERT/modeling.py
+++ /dev/null
@@ -1,474 +0,0 @@
-# coding=utf-8
-# Copyright 2018 The Google AI Language Team Authors and The HugginFace Inc. team.
-#
-# Licensed under the Apache License, Version 2.0 (the "License");
-# you may not use this file except in compliance with the License.
-# You may obtain a copy of the License at
-#
-# http://www.apache.org/licenses/LICENSE-2.0
-#
-# Unless required by applicable law or agreed to in writing, software
-# distributed under the License is distributed on an "AS IS" BASIS,
-# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-# See the License for the specific language governing permissions and
-# limitations under the License.
-"""PyTorch BERT model."""
-
-from __future__ import absolute_import
-from __future__ import division
-from __future__ import print_function
-
-import copy
-import json
-import math
-import six
-import torch
-import torch.nn as nn
-from torch.nn import CrossEntropyLoss
-
-def gelu(x):
- """Implementation of the gelu activation function.
- For information: OpenAI GPT's gelu is slightly different (and gives slightly different results):
- 0.5 * x * (1 + torch.tanh(math.sqrt(2 / math.pi) * (x + 0.044715 * torch.pow(x, 3))))
- """
- return x * 0.5 * (1.0 + torch.erf(x / math.sqrt(2.0)))
-
-
-class BertConfig(object):
- """Configuration class to store the configuration of a `BertModel`.
- """
- def __init__(self,
- vocab_size,
- hidden_size=768,
- num_hidden_layers=12,
- num_attention_heads=12,
- intermediate_size=3072,
- hidden_act="gelu",
- hidden_dropout_prob=0.1,
- attention_probs_dropout_prob=0.1,
- max_position_embeddings=512,
- type_vocab_size=16,
- initializer_range=0.02):
- """Constructs BertConfig.
-
- Args:
- vocab_size: Vocabulary size of `inputs_ids` in `BertModel`.
- hidden_size: Size of the encoder layers and the pooler layer.
- num_hidden_layers: Number of hidden layers in the Transformer encoder.
- num_attention_heads: Number of attention heads for each attention layer in
- the Transformer encoder.
- intermediate_size: The size of the "intermediate" (i.e., feed-forward)
- layer in the Transformer encoder.
- hidden_act: The non-linear activation function (function or string) in the
- encoder and pooler.
- hidden_dropout_prob: The dropout probabilitiy for all fully connected
- layers in the embeddings, encoder, and pooler.
- attention_probs_dropout_prob: The dropout ratio for the attention
- probabilities.
- max_position_embeddings: The maximum sequence length that this model might
- ever be used with. Typically set this to something large just in case
- (e.g., 512 or 1024 or 2048).
- type_vocab_size: The vocabulary size of the `token_type_ids` passed into
- `BertModel`.
- initializer_range: The sttdev of the truncated_normal_initializer for
- initializing all weight matrices.
- """
- self.vocab_size = vocab_size
- self.hidden_size = hidden_size
- self.num_hidden_layers = num_hidden_layers
- self.num_attention_heads = num_attention_heads
- self.hidden_act = hidden_act
- self.intermediate_size = intermediate_size
- self.hidden_dropout_prob = hidden_dropout_prob
- self.attention_probs_dropout_prob = attention_probs_dropout_prob
- self.max_position_embeddings = max_position_embeddings
- self.type_vocab_size = type_vocab_size
- self.initializer_range = initializer_range
-
- @classmethod
- def from_dict(cls, json_object):
- """Constructs a `BertConfig` from a Python dictionary of parameters."""
- config = BertConfig(vocab_size=None)
- for (key, value) in six.iteritems(json_object):
- config.__dict__[key] = value
- return config
-
- @classmethod
- def from_json_file(cls, json_file):
- """Constructs a `BertConfig` from a json file of parameters."""
- with open(json_file, "r") as reader:
- text = reader.read()
- return cls.from_dict(json.loads(text))
-
- def to_dict(self):
- """Serializes this instance to a Python dictionary."""
- output = copy.deepcopy(self.__dict__)
- return output
-
- def to_json_string(self):
- """Serializes this instance to a JSON string."""
- return json.dumps(self.to_dict(), indent=2, sort_keys=True) + "\n"
-
-
-class BERTLayerNorm(nn.Module):
- def __init__(self, config, variance_epsilon=1e-12):
- """Construct a layernorm module in the TF style (epsilon inside the square root).
- """
- super(BERTLayerNorm, self).__init__()
- self.gamma = nn.Parameter(torch.ones(config.hidden_size))
- self.beta = nn.Parameter(torch.zeros(config.hidden_size))
- self.variance_epsilon = variance_epsilon
-
- def forward(self, x):
- u = x.mean(-1, keepdim=True)
- s = (x - u).pow(2).mean(-1, keepdim=True)
- x = (x - u) / torch.sqrt(s + self.variance_epsilon)
- return self.gamma * x + self.beta
-
-class BERTEmbeddings(nn.Module):
- def __init__(self, config):
- super(BERTEmbeddings, self).__init__()
- """Construct the embedding module from word, position and token_type embeddings.
- """
- self.word_embeddings = nn.Embedding(config.vocab_size, config.hidden_size)
- self.position_embeddings = nn.Embedding(config.max_position_embeddings, config.hidden_size)
- self.token_type_embeddings = nn.Embedding(config.type_vocab_size, config.hidden_size)
-
- # self.LayerNorm is not snake-cased to stick with TensorFlow model variable name and be able to load
- # any TensorFlow checkpoint file
- self.LayerNorm = BERTLayerNorm(config)
- self.dropout = nn.Dropout(config.hidden_dropout_prob)
-
- def forward(self, input_ids, token_type_ids=None):
- seq_length = input_ids.size(1)
- position_ids = torch.arange(seq_length, dtype=torch.long, device=input_ids.device)
- position_ids = position_ids.unsqueeze(0).expand_as(input_ids)
- if token_type_ids is None:
- token_type_ids = torch.zeros_like(input_ids)
-
- words_embeddings = self.word_embeddings(input_ids)
- position_embeddings = self.position_embeddings(position_ids)
- token_type_embeddings = self.token_type_embeddings(token_type_ids)
-
- embeddings = words_embeddings + position_embeddings + token_type_embeddings
- embeddings = self.LayerNorm(embeddings)
- embeddings = self.dropout(embeddings)
- return embeddings
-
-
-class BERTSelfAttention(nn.Module):
- def __init__(self, config):
- super(BERTSelfAttention, self).__init__()
- if config.hidden_size % config.num_attention_heads != 0:
- raise ValueError(
- "The hidden size (%d) is not a multiple of the number of attention "
- "heads (%d)" % (config.hidden_size, config.num_attention_heads))
- self.num_attention_heads = config.num_attention_heads
- self.attention_head_size = int(config.hidden_size / config.num_attention_heads)
- self.all_head_size = self.num_attention_heads * self.attention_head_size
-
- self.query = nn.Linear(config.hidden_size, self.all_head_size)
- self.key = nn.Linear(config.hidden_size, self.all_head_size)
- self.value = nn.Linear(config.hidden_size, self.all_head_size)
-
- self.dropout = nn.Dropout(config.attention_probs_dropout_prob)
-
- def transpose_for_scores(self, x):
- new_x_shape = x.size()[:-1] + (self.num_attention_heads, self.attention_head_size)
- x = x.view(*new_x_shape)
- return x.permute(0, 2, 1, 3)
-
- def forward(self, hidden_states, attention_mask):
- mixed_query_layer = self.query(hidden_states)
- mixed_key_layer = self.key(hidden_states)
- mixed_value_layer = self.value(hidden_states)
-
- query_layer = self.transpose_for_scores(mixed_query_layer)
- key_layer = self.transpose_for_scores(mixed_key_layer)
- value_layer = self.transpose_for_scores(mixed_value_layer)
-
- # Take the dot product between "query" and "key" to get the raw attention scores.
- attention_scores = torch.matmul(query_layer, key_layer.transpose(-1, -2))
- attention_scores = attention_scores / math.sqrt(self.attention_head_size)
- # Apply the attention mask is (precomputed for all layers in BertModel forward() function)
- attention_scores = attention_scores + attention_mask
-
- # Normalize the attention scores to probabilities.
- attention_probs = nn.Softmax(dim=-1)(attention_scores)
-
- # This is actually dropping out entire tokens to attend to, which might
- # seem a bit unusual, but is taken from the original Transformer paper.
- attention_probs = self.dropout(attention_probs)
-
- context_layer = torch.matmul(attention_probs, value_layer)
- context_layer = context_layer.permute(0, 2, 1, 3).contiguous()
- new_context_layer_shape = context_layer.size()[:-2] + (self.all_head_size,)
- context_layer = context_layer.view(*new_context_layer_shape)
- return context_layer
-
-
-class BERTSelfOutput(nn.Module):
- def __init__(self, config):
- super(BERTSelfOutput, self).__init__()
- self.dense = nn.Linear(config.hidden_size, config.hidden_size)
- self.LayerNorm = BERTLayerNorm(config)
- self.dropout = nn.Dropout(config.hidden_dropout_prob)
-
- def forward(self, hidden_states, input_tensor):
- hidden_states = self.dense(hidden_states)
- hidden_states = self.dropout(hidden_states)
- hidden_states = self.LayerNorm(hidden_states + input_tensor)
- return hidden_states
-
-
-class BERTAttention(nn.Module):
- def __init__(self, config):
- super(BERTAttention, self).__init__()
- self.self = BERTSelfAttention(config)
- self.output = BERTSelfOutput(config)
-
- def forward(self, input_tensor, attention_mask):
- self_output = self.self(input_tensor, attention_mask)
- attention_output = self.output(self_output, input_tensor)
- return attention_output
-
-
-class BERTIntermediate(nn.Module):
- def __init__(self, config):
- super(BERTIntermediate, self).__init__()
- self.dense = nn.Linear(config.hidden_size, config.intermediate_size)
- self.intermediate_act_fn = gelu
-
- def forward(self, hidden_states):
- hidden_states = self.dense(hidden_states)
- hidden_states = self.intermediate_act_fn(hidden_states)
- return hidden_states
-
-
-class BERTOutput(nn.Module):
- def __init__(self, config):
- super(BERTOutput, self).__init__()
- self.dense = nn.Linear(config.intermediate_size, config.hidden_size)
- self.LayerNorm = BERTLayerNorm(config)
- self.dropout = nn.Dropout(config.hidden_dropout_prob)
-
- def forward(self, hidden_states, input_tensor):
- hidden_states = self.dense(hidden_states)
- hidden_states = self.dropout(hidden_states)
- hidden_states = self.LayerNorm(hidden_states + input_tensor)
- return hidden_states
-
-
-class BERTLayer(nn.Module):
- def __init__(self, config):
- super(BERTLayer, self).__init__()
- self.attention = BERTAttention(config)
- self.intermediate = BERTIntermediate(config)
- self.output = BERTOutput(config)
-
- def forward(self, hidden_states, attention_mask):
- attention_output = self.attention(hidden_states, attention_mask)
- intermediate_output = self.intermediate(attention_output)
- layer_output = self.output(intermediate_output, attention_output)
- return layer_output
-
-
-class BERTEncoder(nn.Module):
- def __init__(self, config):
- super(BERTEncoder, self).__init__()
- layer = BERTLayer(config)
- self.layer = nn.ModuleList([copy.deepcopy(layer) for _ in range(config.num_hidden_layers)])
-
- def forward(self, hidden_states, attention_mask):
- all_encoder_layers = []
- for layer_module in self.layer:
- hidden_states = layer_module(hidden_states, attention_mask)
- all_encoder_layers.append(hidden_states)
- return all_encoder_layers
-
-
-class BERTPooler(nn.Module):
- def __init__(self, config):
- super(BERTPooler, self).__init__()
- self.dense = nn.Linear(config.hidden_size, config.hidden_size)
- self.activation = nn.Tanh()
-
- def forward(self, hidden_states):
- # We "pool" the model by simply taking the hidden state corresponding
- # to the first token.
- first_token_tensor = hidden_states[:, 0]
- pooled_output = self.dense(first_token_tensor)
- pooled_output = self.activation(pooled_output)
- return pooled_output
-
-
-class BertModel(nn.Module):
- """BERT model ("Bidirectional Embedding Representations from a Transformer").
-
- Example usage:
- ```python
- # Already been converted into WordPiece token ids
- input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]])
- input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]])
- token_type_ids = torch.LongTensor([[0, 0, 1], [0, 2, 0]])
-
- config = modeling.BertConfig(vocab_size=32000, hidden_size=512,
- num_hidden_layers=8, num_attention_heads=6, intermediate_size=1024)
-
- model = modeling.BertModel(config=config)
- all_encoder_layers, pooled_output = model(input_ids, token_type_ids, input_mask)
- ```
- """
- def __init__(self, config: BertConfig):
- """Constructor for BertModel.
-
- Args:
- config: `BertConfig` instance.
- """
- super(BertModel, self).__init__()
- self.embeddings = BERTEmbeddings(config)
- self.encoder = BERTEncoder(config)
- self.pooler = BERTPooler(config)
-
- def forward(self, input_ids, token_type_ids=None, attention_mask=None):
- if attention_mask is None:
- attention_mask = torch.ones_like(input_ids)
- if token_type_ids is None:
- token_type_ids = torch.zeros_like(input_ids)
-
- # We create a 3D attention mask from a 2D tensor mask.
- # Sizes are [batch_size, 1, 1, to_seq_length]
- # So we can broadcast to [batch_size, num_heads, from_seq_length, to_seq_length]
- # this attention mask is more simple than the triangular masking of causal attention
- # used in OpenAI GPT, we just need to prepare the broadcast dimension here.
- extended_attention_mask = attention_mask.unsqueeze(1).unsqueeze(2)
-
- # Since attention_mask is 1.0 for positions we want to attend and 0.0 for
- # masked positions, this operation will create a tensor which is 0.0 for
- # positions we want to attend and -10000.0 for masked positions.
- # Since we are adding it to the raw scores before the softmax, this is
- # effectively the same as removing these entirely.
- extended_attention_mask = extended_attention_mask.to(dtype=next(self.parameters()).dtype) # fp16 compatibility
- extended_attention_mask = (1.0 - extended_attention_mask) * -10000.0
-
- embedding_output = self.embeddings(input_ids, token_type_ids)
- all_encoder_layers = self.encoder(embedding_output, extended_attention_mask)
- sequence_output = all_encoder_layers[-1]
- pooled_output = self.pooler(sequence_output)
- return all_encoder_layers, pooled_output
-
-class BertForSequenceClassification(nn.Module):
- """BERT model for classification.
- This module is composed of the BERT model with a linear layer on top of
- the pooled output.
-
- Example usage:
- ```python
- # Already been converted into WordPiece token ids
- input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]])
- input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]])
- token_type_ids = torch.LongTensor([[0, 0, 1], [0, 2, 0]])
-
- config = BertConfig(vocab_size=32000, hidden_size=512,
- num_hidden_layers=8, num_attention_heads=6, intermediate_size=1024)
-
- num_labels = 2
-
- model = BertForSequenceClassification(config, num_labels)
- logits = model(input_ids, token_type_ids, input_mask)
- ```
- """
- def __init__(self, config, num_labels):
- super(BertForSequenceClassification, self).__init__()
- self.bert = BertModel(config)
- self.dropout = nn.Dropout(config.hidden_dropout_prob)
- self.classifier = nn.Linear(config.hidden_size, num_labels)
-
- def init_weights(module):
- if isinstance(module, (nn.Linear, nn.Embedding)):
- # Slightly different from the TF version which uses truncated_normal for initialization
- # cf https://github.com/pytorch/pytorch/pull/5617
- module.weight.data.normal_(mean=0.0, std=config.initializer_range)
- elif isinstance(module, BERTLayerNorm):
- module.beta.data.normal_(mean=0.0, std=config.initializer_range)
- module.gamma.data.normal_(mean=0.0, std=config.initializer_range)
- if isinstance(module, nn.Linear):
- module.bias.data.zero_()
- self.apply(init_weights)
-
- def forward(self, input_ids, token_type_ids, attention_mask, labels=None):
- _, pooled_output = self.bert(input_ids, token_type_ids, attention_mask)
- pooled_output = self.dropout(pooled_output)
- logits = self.classifier(pooled_output)
-
- if labels is not None:
- loss_fct = CrossEntropyLoss()
- loss = loss_fct(logits, labels)
- return loss, logits
- else:
- return logits
-
-class BertForQuestionAnswering(nn.Module):
- """BERT model for Question Answering (span extraction).
- This module is composed of the BERT model with a linear layer on top of
- the sequence output that computes start_logits and end_logits
-
- Example usage:
- ```python
- # Already been converted into WordPiece token ids
- input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]])
- input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]])
- token_type_ids = torch.LongTensor([[0, 0, 1], [0, 2, 0]])
-
- config = BertConfig(vocab_size=32000, hidden_size=512,
- num_hidden_layers=8, num_attention_heads=6, intermediate_size=1024)
-
- model = BertForQuestionAnswering(config)
- start_logits, end_logits = model(input_ids, token_type_ids, input_mask)
- ```
- """
- def __init__(self, config):
- super(BertForQuestionAnswering, self).__init__()
- self.bert = BertModel(config)
- # TODO check with Google if it's normal there is no dropout on the token classifier of SQuAD in the TF version
- # self.dropout = nn.Dropout(config.hidden_dropout_prob)
- self.qa_outputs = nn.Linear(config.hidden_size, 2)
-
- def init_weights(module):
- if isinstance(module, (nn.Linear, nn.Embedding)):
- # Slightly different from the TF version which uses truncated_normal for initialization
- # cf https://github.com/pytorch/pytorch/pull/5617
- module.weight.data.normal_(mean=0.0, std=config.initializer_range)
- elif isinstance(module, BERTLayerNorm):
- module.beta.data.normal_(mean=0.0, std=config.initializer_range)
- module.gamma.data.normal_(mean=0.0, std=config.initializer_range)
- if isinstance(module, nn.Linear):
- module.bias.data.zero_()
- self.apply(init_weights)
-
- def forward(self, input_ids, token_type_ids, attention_mask, start_positions=None, end_positions=None):
- all_encoder_layers, _ = self.bert(input_ids, token_type_ids, attention_mask)
- sequence_output = all_encoder_layers[-1]
- logits = self.qa_outputs(sequence_output)
- start_logits, end_logits = logits.split(1, dim=-1)
- start_logits = start_logits.squeeze(-1)
- end_logits = end_logits.squeeze(-1)
-
- if start_positions is not None and end_positions is not None:
- # If we are on multi-GPU, split add a dimension
- if len(start_positions.size()) > 1:
- start_positions = start_positions.squeeze(-1)
- if len(end_positions.size()) > 1:
- end_positions = end_positions.squeeze(-1)
- # sometimes the start/end positions are outside our model inputs, we ignore these terms
- ignored_index = start_logits.size(1)
- start_positions.clamp_(0, ignored_index)
- end_positions.clamp_(0, ignored_index)
-
- loss_fct = CrossEntropyLoss(ignore_index=ignored_index)
- start_loss = loss_fct(start_logits, start_positions)
- end_loss = loss_fct(end_logits, end_positions)
- total_loss = (start_loss + end_loss) / 2
- return total_loss
- else:
- return start_logits, end_logits
diff --git a/NLP/16.8 BERT/optimization.py b/NLP/16.8 BERT/optimization.py
deleted file mode 100644
index cd08d55..0000000
--- a/NLP/16.8 BERT/optimization.py
+++ /dev/null
@@ -1,180 +0,0 @@
-# coding=utf-8
-# Copyright 2018 The Google AI Language Team Authors and The HugginFace Inc. team.
-#
-# Licensed under the Apache License, Version 2.0 (the "License");
-# you may not use this file except in compliance with the License.
-# You may obtain a copy of the License at
-#
-# http://www.apache.org/licenses/LICENSE-2.0
-#
-# Unless required by applicable law or agreed to in writing, software
-# distributed under the License is distributed on an "AS IS" BASIS,
-# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-# See the License for the specific language governing permissions and
-# limitations under the License.
-"""PyTorch optimization for BERT model."""
-
-import math
-import torch
-from torch.optim import Optimizer
-from torch.nn.utils import clip_grad_norm_
-
-def warmup_cosine(x, warmup=0.002):
- if x < warmup:
- return x/warmup
- return 0.5 * (1.0 + torch.cos(math.pi * x))
-
-def warmup_constant(x, warmup=0.002):
- if x < warmup:
- return x/warmup
- return 1.0
-
-def warmup_linear(x, warmup=0.002):
- if x < warmup:
- return x/warmup
- return 1.0 - x
-
-SCHEDULES = {
- 'warmup_cosine':warmup_cosine,
- 'warmup_constant':warmup_constant,
- 'warmup_linear':warmup_linear,
-}
-
-
-class BERTAdam(Optimizer):
- """Implements BERT version of Adam algorithm with weight decay fix (and no ).
- Params:
- lr: learning rate
- warmup: portion of t_total for the warmup, -1 means no warmup. Default: -1
- t_total: total number of training steps for the learning
- rate schedule, -1 means constant learning rate. Default: -1
- schedule: schedule to use for the warmup (see above). Default: 'warmup_linear'
- b1: Adams b1. Default: 0.9
- b2: Adams b2. Default: 0.999
- e: Adams epsilon. Default: 1e-6
- weight_decay_rate: Weight decay. Default: 0.01
- max_grad_norm: Maximum norm for the gradients (-1 means no clipping). Default: 1.0
- """
- def __init__(self, params, lr, warmup=-1, t_total=-1, schedule='warmup_linear',
- b1=0.9, b2=0.999, e=1e-6, weight_decay_rate=0.01,
- max_grad_norm=1.0):
- if not lr >= 0.0:
- raise ValueError("Invalid learning rate: {} - should be >= 0.0".format(lr))
- if schedule not in SCHEDULES:
- raise ValueError("Invalid schedule parameter: {}".format(schedule))
- if not 0.0 <= warmup < 1.0 and not warmup == -1:
- raise ValueError("Invalid warmup: {} - should be in [0.0, 1.0[ or -1".format(warmup))
- if not 0.0 <= b1 < 1.0:
- raise ValueError("Invalid b1 parameter: {} - should be in [0.0, 1.0[".format(b1))
- if not 0.0 <= b2 < 1.0:
- raise ValueError("Invalid b2 parameter: {} - should be in [0.0, 1.0[".format(b2))
- if not e >= 0.0:
- raise ValueError("Invalid epsilon value: {} - should be >= 0.0".format(e))
- defaults = dict(lr=lr, schedule=schedule, warmup=warmup, t_total=t_total,
- b1=b1, b2=b2, e=e, weight_decay_rate=weight_decay_rate,
- max_grad_norm=max_grad_norm)
- super(BERTAdam, self).__init__(params, defaults)
-
- def get_lr(self):
- lr = []
- for group in self.param_groups:
- for p in group['params']:
- state = self.state[p]
- if len(state) == 0:
- return [0]
- if group['t_total'] != -1:
- schedule_fct = SCHEDULES[group['schedule']]
- lr_scheduled = group['lr'] * schedule_fct(state['step']/group['t_total'], group['warmup'])
- else:
- lr_scheduled = group['lr']
- lr.append(lr_scheduled)
- return lr
-
- def to(self, device):
- """ Move the optimizer state to a specified device"""
- for state in self.state.values():
- state['exp_avg'].to(device)
- state['exp_avg_sq'].to(device)
-
- def initialize_step(self, initial_step):
- """Initialize state with a defined step (but we don't have stored averaged).
- Arguments:
- initial_step (int): Initial step number.
- """
- for group in self.param_groups:
- for p in group['params']:
- state = self.state[p]
- # State initialization
- state['step'] = initial_step
- # Exponential moving average of gradient values
- state['exp_avg'] = torch.zeros_like(p.data)
- # Exponential moving average of squared gradient values
- state['exp_avg_sq'] = torch.zeros_like(p.data)
-
- def step(self, closure=None):
- """Performs a single optimization step.
- Arguments:
- closure (callable, optional): A closure that reevaluates the model
- and returns the loss.
- """
- loss = None
- if closure is not None:
- loss = closure()
-
- for group in self.param_groups:
- for p in group['params']:
- if p.grad is None:
- continue
- grad = p.grad.data
- if grad.is_sparse:
- raise RuntimeError('Adam does not support sparse gradients, please consider SparseAdam instead')
-
- state = self.state[p]
-
- # State initialization
- if len(state) == 0:
- state['step'] = 0
- # Exponential moving average of gradient values
- state['next_m'] = torch.zeros_like(p.data)
- # Exponential moving average of squared gradient values
- state['next_v'] = torch.zeros_like(p.data)
-
- next_m, next_v = state['next_m'], state['next_v']
- beta1, beta2 = group['b1'], group['b2']
-
- # Add grad clipping
- if group['max_grad_norm'] > 0:
- clip_grad_norm_(p, group['max_grad_norm'])
-
- # Decay the first and second moment running average coefficient
- # In-place operations to update the averages at the same time
- next_m.mul_(beta1).add_(1 - beta1, grad)
- next_v.mul_(beta2).addcmul_(1 - beta2, grad, grad)
- update = next_m / (next_v.sqrt() + group['e'])
-
- # Just adding the square of the weights to the loss function is *not*
- # the correct way of using L2 regularization/weight decay with Adam,
- # since that will interact with the m and v parameters in strange ways.
- #
- # Instead we want ot decay the weights in a manner that doesn't interact
- # with the m/v parameters. This is equivalent to adding the square
- # of the weights to the loss with plain (non-momentum) SGD.
- if group['weight_decay_rate'] > 0.0:
- update += group['weight_decay_rate'] * p.data
-
- if group['t_total'] != -1:
- schedule_fct = SCHEDULES[group['schedule']]
- lr_scheduled = group['lr'] * schedule_fct(state['step']/group['t_total'], group['warmup'])
- else:
- lr_scheduled = group['lr']
-
- update_with_lr = lr_scheduled * update
- p.data.add_(-update_with_lr)
-
- state['step'] += 1
-
- # step_size = lr_scheduled * math.sqrt(bias_correction2) / bias_correction1
- # bias_correction1 = 1 - beta1 ** state['step']
- # bias_correction2 = 1 - beta2 ** state['step']
-
- return loss
diff --git a/NLP/16.8 BERT/run.sh b/NLP/16.8 BERT/run.sh
deleted file mode 100644
index c9733c9..0000000
--- a/NLP/16.8 BERT/run.sh
+++ /dev/null
@@ -1,50 +0,0 @@
-
-
-export GLUE_DIR=/search/odin/wuyonggang/bert/extract_code/glue_data
-export BERT_BASE_DIR=/search/odin/wuyonggang/bert/chinese_L-12_H-768_A-12/
-export BERT_PYTORCH_DIR=/search/odin/wuyonggang/bert/chinese_L-12_H-768_A-12/
-
-python run_classifier_word.py \
- --task_name NEWS \
- --do_train \
- --do_eval \
- --data_dir $GLUE_DIR/NewsAll/ \
- --vocab_file $BERT_BASE_DIR/vocab.txt \
- --bert_config_file $BERT_BASE_DIR/bert_config.json \
- --init_checkpoint $BERT_PYTORCH_DIR/pytorch_model.bin \
- --max_seq_length 256 \
- --train_batch_size 32 \
- --learning_rate 2e-5 \
- --num_train_epochs 3.0 \
- --output_dir ./newsAll_output/ \
- --local_rank 3
-
-#python run_classifier_word.py \
-# --task_name NEWS \
-# --do_train \
-# --do_eval \
-# --data_dir $GLUE_DIR/News/ \
-# --vocab_file $BERT_BASE_DIR/vocab.txt \
-# --bert_config_file $BERT_BASE_DIR/bert_config.json \
-# --init_checkpoint $BERT_PYTORCH_DIR/pytorch_model.bin \
-# --max_seq_length 128 \
-# --train_batch_size 32 \
-# --learning_rate 2e-5 \
-# --num_train_epochs 3.0 \
-# --output_dir ./news_output/ \
-# --local_rank 2
-
-#python run_classifier.py \
-# --task_name MRPC \
-# --do_train \
-# --do_eval \
-# --do_lower_case \
-# --data_dir $GLUE_DIR/MRPC/ \
-# --vocab_file $BERT_BASE_DIR/vocab.txt \
-# --bert_config_file $BERT_BASE_DIR/bert_config.json \
-# --init_checkpoint $BERT_PYTORCH_DIR/pytorch_model.bin \
-# --max_seq_length 128 \
-# --train_batch_size 32 \
-# --learning_rate 2e-5 \
-# --num_train_epochs 3.0 \
-# --output_dir ./mrpc_output/
diff --git a/NLP/16.8 BERT/run_classifier_word.py b/NLP/16.8 BERT/run_classifier_word.py
deleted file mode 100644
index c3f6ed6..0000000
--- a/NLP/16.8 BERT/run_classifier_word.py
+++ /dev/null
@@ -1,697 +0,0 @@
-# coding=utf-8
-# Copyright 2018 The Google AI Language Team Authors and The HugginFace Inc. team.
-#
-# Licensed under the Apache License, Version 2.0 (the "License");
-# you may not use this file except in compliance with the License.
-# You may obtain a copy of the License at
-#
-# http://www.apache.org/licenses/LICENSE-2.0
-#
-# Unless required by applicable law or agreed to in writing, software
-# distributed under the License is distributed on an "AS IS" BASIS,
-# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-# See the License for the specific language governing permissions and
-# limitations under the License.
-"""BERT finetuning runner."""
-
-from __future__ import absolute_import
-from __future__ import division
-from __future__ import print_function
-
-import csv
-import os
-import logging
-import argparse
-import random
-from tqdm import tqdm, trange
-
-import numpy as np
-import torch
-from torch.utils.data import TensorDataset, DataLoader, RandomSampler, SequentialSampler
-from torch.utils.data.distributed import DistributedSampler
-
-import tokenization_word as tokenization
-from modeling import BertConfig, BertForSequenceClassification
-from optimization import BERTAdam
-
-
-logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
- datefmt = '%m/%d/%Y %H:%M:%S',
- level = logging.INFO)
-logger = logging.getLogger(__name__)
-
-
-class InputExample(object):
- """A single training/test example for simple sequence classification."""
-
- def __init__(self, guid, text_a, text_b=None, label=None):
- """Constructs a InputExample.
-
- Args:
- guid: Unique id for the example.
- text_a: string. The untokenized text of the first sequence. For single
- sequence tasks, only this sequence must be specified.
- text_b: (Optional) string. The untokenized text of the second sequence.
- Only must be specified for sequence pair tasks.
- label: (Optional) string. The label of the example. This should be
- specified for train and dev examples, but not for test examples.
- """
- self.guid = guid
- self.text_a = text_a
- self.text_b = text_b
- self.label = label
-
-
-class InputFeatures(object):
- """A single set of features of data."""
-
- def __init__(self, input_ids, input_mask, segment_ids, label_id):
- self.input_ids = input_ids
- self.input_mask = input_mask
- self.segment_ids = segment_ids
- self.label_id = label_id
-
-
-class DataProcessor(object):
- """Base class for data converters for sequence classification data sets."""
-
- def get_train_examples(self, data_dir):
- """Gets a collection of `InputExample`s for the train set."""
- raise NotImplementedError()
-
- def get_dev_examples(self, data_dir):
- """Gets a collection of `InputExample`s for the dev set."""
- raise NotImplementedError()
-
- def get_labels(self):
- """Gets the list of labels for this data set."""
- raise NotImplementedError()
-
- @classmethod
- def _read_tsv(cls, input_file, quotechar=None):
- """Reads a tab separated value file."""
- file_in = open(input_file, "rb")
- lines = []
- for line in file_in:
- lines.append(line.decode("gbk").split("\t"))
- return lines
-
-class NewsProcessor(DataProcessor):
- """Processor for the MRPC data set (GLUE version)."""
-
- def __init__(self):
- self.labels = set()
-
- def get_train_examples(self, data_dir):
- """See base class."""
- logger.info("LOOKING AT {}".format(os.path.join(data_dir, "train.tsv")))
- return self._create_examples(
- self._read_tsv(os.path.join(data_dir, "train.tsv")), "train")
-
- def get_dev_examples(self, data_dir):
- """See base class."""
- return self._create_examples(
- self._read_tsv(os.path.join(data_dir, "dev.tsv")), "dev")
-
- def get_labels(self):
- """See base class."""
- return list(self.labels)
-
- def _create_examples(self, lines, set_type):
- """Creates examples for the training and dev sets."""
- examples = []
- for (i, line) in enumerate(lines):
- guid = "%s-%s" % (set_type, i)
- text_a = tokenization.convert_to_unicode(line[1])
- label = tokenization.convert_to_unicode(line[0])
- self.labels.add(label)
- examples.append(
- InputExample(guid=guid, text_a=text_a, text_b=None, label=label))
-
-
- return examples
-
-class MrpcProcessor(DataProcessor):
- """Processor for the MRPC data set (GLUE version)."""
-
- def get_train_examples(self, data_dir):
- """See base class."""
- logger.info("LOOKING AT {}".format(os.path.join(data_dir, "train.tsv")))
- return self._create_examples(
- self._read_tsv(os.path.join(data_dir, "train.tsv")), "train")
-
- def get_dev_examples(self, data_dir):
- """See base class."""
- return self._create_examples(
- self._read_tsv(os.path.join(data_dir, "dev.tsv")), "dev")
-
- def get_labels(self):
- """See base class."""
- return ["0", "1"]
-
- def _create_examples(self, lines, set_type):
- """Creates examples for the training and dev sets."""
- examples = []
- for (i, line) in enumerate(lines):
- if i == 0:
- continue
- guid = "%s-%s" % (set_type, i)
- text_a = tokenization.convert_to_unicode(line[3])
- text_b = tokenization.convert_to_unicode(line[4])
- label = tokenization.convert_to_unicode(line[0])
- examples.append(
- InputExample(guid=guid, text_a=text_a, text_b=text_b, label=label))
- return examples
-
-class MnliProcessor(DataProcessor):
- """Processor for the MultiNLI data set (GLUE version)."""
-
- def get_train_examples(self, data_dir):
- """See base class."""
- return self._create_examples(
- self._read_tsv(os.path.join(data_dir, "train.tsv")), "train")
-
- def get_dev_examples(self, data_dir):
- """See base class."""
- return self._create_examples(
- self._read_tsv(os.path.join(data_dir, "dev_matched.tsv")),
- "dev_matched")
-
- def get_labels(self):
- """See base class."""
- return ["contradiction", "entailment", "neutral"]
-
- def _create_examples(self, lines, set_type):
- """Creates examples for the training and dev sets."""
- examples = []
- for (i, line) in enumerate(lines):
- if i == 0:
- continue
- guid = "%s-%s" % (set_type, tokenization.convert_to_unicode(line[0]))
- text_a = tokenization.convert_to_unicode(line[8])
- text_b = tokenization.convert_to_unicode(line[9])
- label = tokenization.convert_to_unicode(line[-1])
- examples.append(
- InputExample(guid=guid, text_a=text_a, text_b=text_b, label=label))
- return examples
-
-
-class ColaProcessor(DataProcessor):
- """Processor for the CoLA data set (GLUE version)."""
-
- def get_train_examples(self, data_dir):
- """See base class."""
- return self._create_examples(
- self._read_tsv(os.path.join(data_dir, "train.tsv")), "train")
-
- def get_dev_examples(self, data_dir):
- """See base class."""
- return self._create_examples(
- self._read_tsv(os.path.join(data_dir, "dev.tsv")), "dev")
-
- def get_labels(self):
- """See base class."""
- return ["0", "1"]
-
- def _create_examples(self, lines, set_type):
- """Creates examples for the training and dev sets."""
- examples = []
- for (i, line) in enumerate(lines):
- guid = "%s-%s" % (set_type, i)
- text_a = tokenization.convert_to_unicode(line[3])
- label = tokenization.convert_to_unicode(line[1])
- examples.append(
- InputExample(guid=guid, text_a=text_a, text_b=None, label=label))
- return examples
-
-
-def convert_examples_to_features(examples, label_list, max_seq_length, tokenizer):
- """Loads a data file into a list of `InputBatch`s."""
-
- label_map = {}
- for (i, label) in enumerate(label_list):
- label_map[label] = i
- features = []
- for (ex_index, example) in enumerate(examples):
- tokens_a = tokenizer.tokenize(example.text_a)
-
- tokens_b = None
- if example.text_b:
- tokens_b = tokenizer.tokenize(example.text_b)
-
- if tokens_b:
- # Modifies `tokens_a` and `tokens_b` in place so that the total
- # length is less than the specified length.
- # Account for [CLS], [SEP], [SEP] with "- 3"
- _truncate_seq_pair(tokens_a, tokens_b, max_seq_length - 3)
- else:
- # Account for [CLS] and [SEP] with "- 2"
- if len(tokens_a) > max_seq_length - 2:
- tokens_a = tokens_a[0:(max_seq_length - 2)]
-
- # The convention in BERT is:
- # (a) For sequence pairs:
- # tokens: [CLS] is this jack ##son ##ville ? [SEP] no it is not . [SEP]
- # type_ids: 0 0 0 0 0 0 0 0 1 1 1 1 1 1
- # (b) For single sequences:
- # tokens: [CLS] the dog is hairy . [SEP]
- # type_ids: 0 0 0 0 0 0 0
- #
- # Where "type_ids" are used to indicate whether this is the first
- # sequence or the second sequence. The embedding vectors for `type=0` and
- # `type=1` were learned during pre-training and are added to the wordpiece
- # embedding vector (and position vector). This is not *strictly* necessary
- # since the [SEP] token unambigiously separates the sequences, but it makes
- # it easier for the model to learn the concept of sequences.
- #
- # For classification tasks, the first vector (corresponding to [CLS]) is
- # used as as the "sentence vector". Note that this only makes sense because
- # the entire model is fine-tuned.
- tokens = []
- segment_ids = []
- tokens.append("[CLS]")
- segment_ids.append(0)
- for token in tokens_a:
- tokens.append(token)
- segment_ids.append(0)
- tokens.append("[SEP]")
- segment_ids.append(0)
-
- if tokens_b:
- for token in tokens_b:
- tokens.append(token)
- segment_ids.append(1)
- tokens.append("[SEP]")
- segment_ids.append(1)
-
- input_ids = tokenizer.convert_tokens_to_ids(tokens)
-
- # The mask has 1 for real tokens and 0 for padding tokens. Only real
- # tokens are attended to.
- input_mask = [1] * len(input_ids)
-
- # Zero-pad up to the sequence length.
- while len(input_ids) < max_seq_length:
- input_ids.append(0)
- input_mask.append(0)
- segment_ids.append(0)
-
- assert len(input_ids) == max_seq_length
- assert len(input_mask) == max_seq_length
- assert len(segment_ids) == max_seq_length
-
- label_id = label_map[example.label]
- if ex_index < 5:
- logger.info("*** Example ***")
- logger.info("guid: %s" % (example.guid))
- logger.info("tokens: %s" % " ".join(
- [tokenization.printable_text(x) for x in tokens]))
- logger.info("input_ids: %s" % " ".join([str(x) for x in input_ids]))
- logger.info("input_mask: %s" % " ".join([str(x) for x in input_mask]))
- logger.info(
- "segment_ids: %s" % " ".join([str(x) for x in segment_ids]))
- logger.info("label: %s (id = %d)" % (example.label, label_id))
-
- features.append(
- InputFeatures(
- input_ids=input_ids,
- input_mask=input_mask,
- segment_ids=segment_ids,
- label_id=label_id))
- return features
-
-
-def _truncate_seq_pair(tokens_a, tokens_b, max_length):
- """Truncates a sequence pair in place to the maximum length."""
-
- # This is a simple heuristic which will always truncate the longer sequence
- # one token at a time. This makes more sense than truncating an equal percent
- # of tokens from each, since if one sequence is very short then each token
- # that's truncated likely contains more information than a longer sequence.
- while True:
- total_length = len(tokens_a) + len(tokens_b)
- if total_length <= max_length:
- break
- if len(tokens_a) > len(tokens_b):
- tokens_a.pop()
- else:
- tokens_b.pop()
-
-def accuracy(out, labels):
- outputs = np.argmax(out, axis=1)
- return np.sum(outputs==labels)
-
-def copy_optimizer_params_to_model(named_params_model, named_params_optimizer):
- """ Utility function for optimize_on_cpu and 16-bits training.
- Copy the parameters optimized on CPU/RAM back to the model on GPU
- """
- for (name_opti, param_opti), (name_model, param_model) in zip(named_params_optimizer, named_params_model):
- if name_opti != name_model:
- logger.error("name_opti != name_model: {} {}".format(name_opti, name_model))
- raise ValueError
- param_model.data.copy_(param_opti.data)
-
-def set_optimizer_params_grad(named_params_optimizer, named_params_model, test_nan=False):
- """ Utility function for optimize_on_cpu and 16-bits training.
- Copy the gradient of the GPU parameters to the CPU/RAMM copy of the model
- """
- is_nan = False
- for (name_opti, param_opti), (name_model, param_model) in zip(named_params_optimizer, named_params_model):
- if name_opti != name_model:
- logger.error("name_opti != name_model: {} {}".format(name_opti, name_model))
- raise ValueError
- if test_nan and torch.isnan(param_model.grad).sum() > 0:
- is_nan = True
- if param_opti.grad is None:
- param_opti.grad = torch.nn.Parameter(param_opti.data.new().resize_(*param_opti.data.size()))
- param_opti.grad.data.copy_(param_model.grad.data)
- return is_nan
-
-def main():
- parser = argparse.ArgumentParser()
-
- ## Required parameters
- parser.add_argument("--data_dir",
- default=None,
- type=str,
- required=True,
- help="The input data dir. Should contain the .tsv files (or other data files) for the task.")
- parser.add_argument("--bert_config_file",
- default=None,
- type=str,
- required=True,
- help="The config json file corresponding to the pre-trained BERT model. \n"
- "This specifies the model architecture.")
- parser.add_argument("--task_name",
- default=None,
- type=str,
- required=True,
- help="The name of the task to train.")
- parser.add_argument("--vocab_file",
- default=None,
- type=str,
- required=True,
- help="The vocabulary file that the BERT model was trained on.")
- parser.add_argument("--output_dir",
- default=None,
- type=str,
- required=True,
- help="The output directory where the model checkpoints will be written.")
-
- ## Other parameters
- parser.add_argument("--init_checkpoint",
- default=None,
- type=str,
- help="Initial checkpoint (usually from a pre-trained BERT model).")
- parser.add_argument("--do_lower_case",
- default=False,
- action='store_true',
- help="Whether to lower case the input text. True for uncased models, False for cased models.")
- parser.add_argument("--max_seq_length",
- default=128,
- type=int,
- help="The maximum total input sequence length after WordPiece tokenization. \n"
- "Sequences longer than this will be truncated, and sequences shorter \n"
- "than this will be padded.")
- parser.add_argument("--do_train",
- default=False,
- action='store_true',
- help="Whether to run training.")
- parser.add_argument("--do_eval",
- default=False,
- action='store_true',
- help="Whether to run eval on the dev set.")
- parser.add_argument("--train_batch_size",
- default=32,
- type=int,
- help="Total batch size for training.")
- parser.add_argument("--eval_batch_size",
- default=8,
- type=int,
- help="Total batch size for eval.")
- parser.add_argument("--learning_rate",
- default=5e-5,
- type=float,
- help="The initial learning rate for Adam.")
- parser.add_argument("--num_train_epochs",
- default=3.0,
- type=float,
- help="Total number of training epochs to perform.")
- parser.add_argument("--warmup_proportion",
- default=0.1,
- type=float,
- help="Proportion of training to perform linear learning rate warmup for. "
- "E.g., 0.1 = 10%% of training.")
- parser.add_argument("--save_checkpoints_steps",
- default=1000,
- type=int,
- help="How often to save the model checkpoint.")
- parser.add_argument("--no_cuda",
- default=False,
- action='store_true',
- help="Whether not to use CUDA when available")
- parser.add_argument("--local_rank",
- type=int,
- default=-1,
- help="local_rank for distributed training on gpus")
- parser.add_argument('--seed',
- type=int,
- default=42,
- help="random seed for initialization")
- parser.add_argument('--gradient_accumulation_steps',
- type=int,
- default=1,
- help="Number of updates steps to accumualte before performing a backward/update pass.")
- parser.add_argument('--optimize_on_cpu',
- default=False,
- action='store_true',
- help="Whether to perform optimization and keep the optimizer averages on CPU")
- parser.add_argument('--fp16',
- default=False,
- action='store_true',
- help="Whether to use 16-bit float precision instead of 32-bit")
- parser.add_argument('--loss_scale',
- type=float, default=128,
- help='Loss scaling, positive power of 2 values can improve fp16 convergence.')
-
- args = parser.parse_args()
-
- processors = {
- "cola": ColaProcessor,
- "mnli": MnliProcessor,
- "mrpc": MrpcProcessor,
- "news": NewsProcessor,
- }
-
- if args.local_rank == -1 or args.no_cuda:
- device = torch.device("cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu")
- n_gpu = torch.cuda.device_count()
- else:
- device = torch.device("cuda", args.local_rank)
- n_gpu = 1
- # Initializes the distributed backend which will take care of sychronizing nodes/GPUs
- # torch.distributed.init_process_group(backend='nccl')
- if args.fp16:
- logger.info("16-bits training currently not supported in distributed training")
- args.fp16 = False # (see https://github.com/pytorch/pytorch/pull/13496)
- logger.info("device %s n_gpu %d distributed training %r", device, n_gpu, bool(args.local_rank != -1))
-
- if args.gradient_accumulation_steps < 1:
- raise ValueError("Invalid gradient_accumulation_steps parameter: {}, should be >= 1".format(
- args.gradient_accumulation_steps))
-
- args.train_batch_size = int(args.train_batch_size / args.gradient_accumulation_steps)
-
- random.seed(args.seed)
- np.random.seed(args.seed)
- torch.manual_seed(args.seed)
- if n_gpu > 0:
- torch.cuda.manual_seed_all(args.seed)
-
- if not args.do_train and not args.do_eval:
- raise ValueError("At least one of `do_train` or `do_eval` must be True.")
-
- bert_config = BertConfig.from_json_file(args.bert_config_file)
-
- if args.max_seq_length > bert_config.max_position_embeddings:
- raise ValueError(
- "Cannot use sequence length {} because the BERT model was only trained up to sequence length {}".format(
- args.max_seq_length, bert_config.max_position_embeddings))
-
- if os.path.exists(args.output_dir) and os.listdir(args.output_dir):
- raise ValueError("Output directory ({}) already exists and is not empty.".format(args.output_dir))
- os.makedirs(args.output_dir, exist_ok=True)
-
- task_name = args.task_name.lower()
-
- if task_name not in processors:
- raise ValueError("Task not found: %s" % (task_name))
-
-
- processor = processors[task_name]()
-
- tokenizer = tokenization.FullTokenizer(
- vocab_file=args.vocab_file, do_lower_case=args.do_lower_case)
-
- train_examples = None
- num_train_steps = None
- if args.do_train:
- train_examples = processor.get_train_examples(args.data_dir)
- num_train_steps = int(
- len(train_examples) / args.train_batch_size / args.gradient_accumulation_steps * args.num_train_epochs)
-
- label_list = processor.get_labels()
-
- print("label_list.size:%d\n" %(len(label_list)))
-
- # Prepare model
- model = BertForSequenceClassification(bert_config, len(label_list))
- if args.init_checkpoint is not None:
- model.bert.load_state_dict(torch.load(args.init_checkpoint, map_location='cpu'))
- if args.fp16:
- model.half()
- model.to(device)
- #if args.local_rank != -1:
- #model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank],
- # output_device=args.local_rank)
- #elif n_gpu > 1:
- # model = torch.nn.DataParallel(model)
-
- # Prepare optimizer
- if args.fp16:
- param_optimizer = [(n, param.clone().detach().to('cpu').float().requires_grad_()) \
- for n, param in model.named_parameters()]
- elif args.optimize_on_cpu:
- param_optimizer = [(n, param.clone().detach().to('cpu').requires_grad_()) \
- for n, param in model.named_parameters()]
- else:
- param_optimizer = list(model.named_parameters())
- no_decay = ['bias', 'gamma', 'beta']
- optimizer_grouped_parameters = [
- {'params': [p for n, p in param_optimizer if n not in no_decay], 'weight_decay_rate': 0.01},
- {'params': [p for n, p in param_optimizer if n in no_decay], 'weight_decay_rate': 0.0}
- ]
- optimizer = BERTAdam(optimizer_grouped_parameters,
- lr=args.learning_rate,
- warmup=args.warmup_proportion,
- t_total=num_train_steps)
-
- global_step = 0
- if args.do_train:
- train_features = convert_examples_to_features(
- train_examples, label_list, args.max_seq_length, tokenizer)
- logger.info("***** Running training *****")
- logger.info(" Num examples = %d", len(train_examples))
- logger.info(" Batch size = %d", args.train_batch_size)
- logger.info(" Num steps = %d", num_train_steps)
- all_input_ids = torch.tensor([f.input_ids for f in train_features], dtype=torch.long)
- all_input_mask = torch.tensor([f.input_mask for f in train_features], dtype=torch.long)
- all_segment_ids = torch.tensor([f.segment_ids for f in train_features], dtype=torch.long)
- all_label_ids = torch.tensor([f.label_id for f in train_features], dtype=torch.long)
- train_data = TensorDataset(all_input_ids, all_input_mask, all_segment_ids, all_label_ids)
- if args.local_rank == -1:
- train_sampler = RandomSampler(train_data)
- else:
-
- train_sampler = RandomSampler(train_data)
- #train_sampler = DistributedSampler(train_data)
- train_dataloader = DataLoader(train_data, sampler=train_sampler, batch_size=args.train_batch_size)
-
- model.train()
- for _ in trange(int(args.num_train_epochs), desc="Epoch"):
- tr_loss = 0
- nb_tr_examples, nb_tr_steps = 0, 0
- for step, batch in enumerate(tqdm(train_dataloader, desc="Iteration")):
- batch = tuple(t.to(device) for t in batch)
- input_ids, input_mask, segment_ids, label_ids = batch
- loss, _ = model(input_ids, segment_ids, input_mask, label_ids)
- if n_gpu > 1:
- loss = loss.mean() # mean() to average on multi-gpu.
- if args.fp16 and args.loss_scale != 1.0:
- # rescale loss for fp16 training
- # see https://docs.nvidia.com/deeplearning/sdk/mixed-precision-training/index.html
- loss = loss * args.loss_scale
- if args.gradient_accumulation_steps > 1:
- loss = loss / args.gradient_accumulation_steps
- loss.backward()
- tr_loss += loss.item()
- nb_tr_examples += input_ids.size(0)
- nb_tr_steps += 1
- if (step + 1) % args.gradient_accumulation_steps == 0:
- if args.fp16 or args.optimize_on_cpu:
- if args.fp16 and args.loss_scale != 1.0:
- # scale down gradients for fp16 training
- for param in model.parameters():
- param.grad.data = param.grad.data / args.loss_scale
- is_nan = set_optimizer_params_grad(param_optimizer, model.named_parameters(), test_nan=True)
- if is_nan:
- logger.info("FP16 TRAINING: Nan in gradients, reducing loss scaling")
- args.loss_scale = args.loss_scale / 2
- model.zero_grad()
- continue
- optimizer.step()
- copy_optimizer_params_to_model(model.named_parameters(), param_optimizer)
- else:
- optimizer.step()
- model.zero_grad()
- global_step += 1
-
- if args.do_eval:
- eval_examples = processor.get_dev_examples(args.data_dir)
- eval_features = convert_examples_to_features(
- eval_examples, label_list, args.max_seq_length, tokenizer)
- logger.info("***** Running evaluation *****")
- logger.info(" Num examples = %d", len(eval_examples))
- logger.info(" Batch size = %d", args.eval_batch_size)
- all_input_ids = torch.tensor([f.input_ids for f in eval_features], dtype=torch.long)
- all_input_mask = torch.tensor([f.input_mask for f in eval_features], dtype=torch.long)
- all_segment_ids = torch.tensor([f.segment_ids for f in eval_features], dtype=torch.long)
- all_label_ids = torch.tensor([f.label_id for f in eval_features], dtype=torch.long)
- eval_data = TensorDataset(all_input_ids, all_input_mask, all_segment_ids, all_label_ids)
- if args.local_rank == -1:
- eval_sampler = SequentialSampler(eval_data)
- else:
-
- eval_sampler = SequentialSampler(eval_data)
- #eval_sampler = DistributedSampler(eval_data)
- eval_dataloader = DataLoader(eval_data, sampler=eval_sampler, batch_size=args.eval_batch_size)
-
- model.eval()
- eval_loss, eval_accuracy = 0, 0
- nb_eval_steps, nb_eval_examples = 0, 0
- for input_ids, input_mask, segment_ids, label_ids in eval_dataloader:
- input_ids = input_ids.to(device)
- input_mask = input_mask.to(device)
- segment_ids = segment_ids.to(device)
- label_ids = label_ids.to(device)
-
- with torch.no_grad():
- tmp_eval_loss, logits = model(input_ids, segment_ids, input_mask, label_ids)
-
- logits = logits.detach().cpu().numpy()
- label_ids = label_ids.to('cpu').numpy()
- tmp_eval_accuracy = accuracy(logits, label_ids)
-
- eval_loss += tmp_eval_loss.mean().item()
- eval_accuracy += tmp_eval_accuracy
-
- nb_eval_examples += input_ids.size(0)
- nb_eval_steps += 1
-
- eval_loss = eval_loss / nb_eval_steps
- eval_accuracy = eval_accuracy / nb_eval_examples
-
- result = {'eval_loss': eval_loss,
- 'eval_accuracy': eval_accuracy,
- 'global_step': global_step,
- 'loss': tr_loss/nb_tr_steps}
-
- output_eval_file = os.path.join(args.output_dir, "eval_results.txt")
- with open(output_eval_file, "w") as writer:
- logger.info("***** Eval results *****")
- for key in sorted(result.keys()):
- logger.info(" %s = %s", key, str(result[key]))
- writer.write("%s = %s\n" % (key, str(result[key])))
-
-if __name__ == "__main__":
- main()
diff --git a/NLP/16.8 BERT/tokenization_word.py b/NLP/16.8 BERT/tokenization_word.py
deleted file mode 100644
index a34d64a..0000000
--- a/NLP/16.8 BERT/tokenization_word.py
+++ /dev/null
@@ -1,342 +0,0 @@
-# coding=utf-8
-# Copyright 2018 The Google AI Language Team Authors and The HugginFace Inc. team.
-#
-# Licensed under the Apache License, Version 2.0 (the "License");
-# you may not use this file except in compliance with the License.
-# You may obtain a copy of the License at
-#
-# http://www.apache.org/licenses/LICENSE-2.0
-#
-# Unless required by applicable law or agreed to in writing, software
-# distributed under the License is distributed on an "AS IS" BASIS,
-# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
-# See the License for the specific language governing permissions and
-# limitations under the License.
-"""Tokenization classes."""
-
-from __future__ import absolute_import
-from __future__ import division
-from __future__ import print_function
-
-import collections
-import unicodedata
-import six
-
-def convert_to_unicode(text):
- """Converts `text` to Unicode (if it's not already), assuming utf-8 input."""
- if six.PY3:
- if isinstance(text, str):
- return text
- elif isinstance(text, bytes):
- return text.decode("utf-8", "ignore")
- else:
- raise ValueError("Unsupported string type: %s" % (type(text)))
- elif six.PY2:
- if isinstance(text, str):
- return text.decode("utf-8", "ignore")
- elif isinstance(text, unicode):
- return text
- else:
- raise ValueError("Unsupported string type: %s" % (type(text)))
- else:
- raise ValueError("Not running on Python2 or Python 3?")
-
-
-def printable_text(text):
- """Returns text encoded in a way suitable for print or `tf.logging`."""
-
- # These functions want `str` for both Python2 and Python3, but in one case
- # it's a Unicode string and in the other it's a byte string.
- if six.PY3:
- if isinstance(text, str):
- return text
- elif isinstance(text, bytes):
- return text.decode("utf-8", "ignore")
- else:
- raise ValueError("Unsupported string type: %s" % (type(text)))
- elif six.PY2:
- if isinstance(text, str):
- return text
- elif isinstance(text, unicode):
- return text.encode("utf-8")
- else:
- raise ValueError("Unsupported string type: %s" % (type(text)))
- else:
- raise ValueError("Not running on Python2 or Python 3?")
-
-
-def load_vocab(vocab_file):
- """Loads a vocabulary file into a dictionary."""
- vocab = collections.OrderedDict()
-
- index_vocab = collections.OrderedDict()
- index = 0
- with open(vocab_file, "rb") as reader:
- while True:
- tmp = reader.readline()
- token = convert_to_unicode(tmp)
-
-
- if not token:
- break
-
- #file_out.write("%d\t%s\n" %(index,token))
- token = token.strip()
- vocab[token] = index
- index_vocab[index]=token
- index += 1
-
-
- return vocab,index_vocab
-
-
-def convert_tokens_to_ids(vocab, tokens):
- """Converts a sequence of tokens into ids using the vocab."""
- ids = []
- for token in tokens:
- ids.append(vocab[token])
- return ids
-
-
-def whitespace_tokenize(text):
- """Runs basic whitespace cleaning and splitting on a peice of text."""
- text = text.strip()
- if not text:
- return []
- tokens = text.split()
- return tokens
-
-
-class FullTokenizer(object):
- """Runs end-to-end tokenziation."""
-
- def __init__(self, vocab_file, do_lower_case=True):
- self.vocab,self.index_vocab = load_vocab(vocab_file)
- self.basic_tokenizer = BasicTokenizer(do_lower_case=do_lower_case)
- self.wordpiece_tokenizer = WordpieceTokenizer(vocab=self.vocab)
-
- def tokenize(self, text):
- split_tokens = []
- for token in self.basic_tokenizer.tokenize(text):
- for sub_token in self.wordpiece_tokenizer.tokenize(token):
- split_tokens.append(sub_token)
-
- return split_tokens
-
- def convert_tokens_to_ids(self, tokens):
- return convert_tokens_to_ids(self.vocab, tokens)
-
-
-class BasicTokenizer(object):
- """Runs basic tokenization (punctuation splitting, lower casing, etc.)."""
-
- def __init__(self, do_lower_case=True):
- """Constructs a BasicTokenizer.
-
- Args:
- do_lower_case: Whether to lower case the input.
- """
- self.do_lower_case = do_lower_case
-
- def tokenize(self, text):
- """Tokenizes a piece of text."""
- text = convert_to_unicode(text)
- text = self._clean_text(text)
- # This was added on November 1st, 2018 for the multilingual and Chinese
- # models. This is also applied to the English models now, but it doesn't
- # matter since the English models were not trained on any Chinese data
- # and generally don't have any Chinese data in them (there are Chinese
- # characters in the vocabulary because Wikipedia does have some Chinese
- # words in the English Wikipedia.).
- text = self._tokenize_chinese_chars(text)
- orig_tokens = whitespace_tokenize(text)
- split_tokens = []
- for token in orig_tokens:
- if self.do_lower_case:
- token = token.lower()
- token = self._run_strip_accents(token)
- split_tokens.extend(self._run_split_on_punc(token))
-
- output_tokens = whitespace_tokenize(" ".join(split_tokens))
- return output_tokens
-
- def _run_strip_accents(self, text):
- """Strips accents from a piece of text."""
- text = unicodedata.normalize("NFD", text)
- output = []
- for char in text:
- cat = unicodedata.category(char)
- if cat == "Mn":
- continue
- output.append(char)
- return "".join(output)
-
- def _run_split_on_punc(self, text):
- """Splits punctuation on a piece of text."""
- chars = list(text)
- i = 0
- start_new_word = True
- output = []
- while i < len(chars):
- char = chars[i]
- if _is_punctuation(char):
- output.append([char])
- start_new_word = True
- else:
- if start_new_word:
- output.append([])
- start_new_word = False
- output[-1].append(char)
- i += 1
-
- return ["".join(x) for x in output]
-
- def _tokenize_chinese_chars(self, text):
- """Adds whitespace around any CJK character."""
- output = []
- for char in text:
- cp = ord(char)
- if self._is_chinese_char(cp):
- output.append(" ")
- output.append(char)
- output.append(" ")
- else:
- output.append(char)
- return "".join(output)
-
- def _is_chinese_char(self, cp):
- """Checks whether CP is the codepoint of a CJK character."""
- # This defines a "chinese character" as anything in the CJK Unicode block:
- # https://en.wikipedia.org/wiki/CJK_Unified_Ideographs_(Unicode_block)
- #
- # Note that the CJK Unicode block is NOT all Japanese and Korean characters,
- # despite its name. The modern Korean Hangul alphabet is a different block,
- # as is Japanese Hiragana and Katakana. Those alphabets are used to write
- # space-separated words, so they are not treated specially and handled
- # like the all of the other languages.
- if ((cp >= 0x4E00 and cp <= 0x9FFF) or #
- (cp >= 0x3400 and cp <= 0x4DBF) or #
- (cp >= 0x20000 and cp <= 0x2A6DF) or #
- (cp >= 0x2A700 and cp <= 0x2B73F) or #
- (cp >= 0x2B740 and cp <= 0x2B81F) or #
- (cp >= 0x2B820 and cp <= 0x2CEAF) or
- (cp >= 0xF900 and cp <= 0xFAFF) or #
- (cp >= 0x2F800 and cp <= 0x2FA1F)): #
- return True
-
- return False
-
- def _clean_text(self, text):
- """Performs invalid character removal and whitespace cleanup on text."""
- output = []
- for char in text:
- cp = ord(char)
- if cp == 0 or cp == 0xfffd or _is_control(char):
- continue
- if _is_whitespace(char):
- output.append(" ")
- else:
- output.append(char)
- return "".join(output)
-
-
-class WordpieceTokenizer(object):
- """Runs WordPiece tokenization."""
-
- def __init__(self, vocab, unk_token="[UNK]", max_input_chars_per_word=100):
- self.vocab = vocab
- self.unk_token = unk_token
- self.max_input_chars_per_word = max_input_chars_per_word
-
- def tokenize(self, text):
- """Tokenizes a piece of text into its word pieces.
-
- This uses a greedy longest-match-first algorithm to perform tokenization
- using the given vocabulary.
-
- For example:
- input = "unaffable"
- output = ["un", "##aff", "##able"]
-
- Args:
- text: A single token or whitespace separated tokens. This should have
- already been passed through `BasicTokenizer.
-
- Returns:
- A list of wordpiece tokens.
- """
-
- text = convert_to_unicode(text)
-
- output_tokens = []
- for token in whitespace_tokenize(text):
- chars = list(token)
- if len(chars) > self.max_input_chars_per_word:
- output_tokens.append(self.unk_token)
- continue
-
- is_bad = False
- start = 0
- sub_tokens = []
- while start < len(chars):
- end = len(chars)
- cur_substr = None
- while start < end:
- substr = "".join(chars[start:end])
- if start > 0:
- substr = "##" + substr
- if substr in self.vocab:
- cur_substr = substr
- break
- end -= 1
- if cur_substr is None:
- is_bad = True
- break
- sub_tokens.append(cur_substr)
- start = end
-
- if is_bad:
- output_tokens.append(self.unk_token)
- else:
- output_tokens.extend(sub_tokens)
- return output_tokens
-
-
-def _is_whitespace(char):
- """Checks whether `chars` is a whitespace character."""
- # \t, \n, and \r are technically contorl characters but we treat them
- # as whitespace since they are generally considered as such.
- if char == " " or char == "\t" or char == "\n" or char == "\r":
- return True
- cat = unicodedata.category(char)
- if cat == "Zs":
- return True
- return False
-
-
-def _is_control(char):
- """Checks whether `chars` is a control character."""
- # These are technically control characters but we count them as whitespace
- # characters.
- if char == "\t" or char == "\n" or char == "\r":
- return False
- cat = unicodedata.category(char)
- if cat.startswith("C"):
- return True
- return False
-
-
-def _is_punctuation(char):
- """Checks whether `chars` is a punctuation character."""
- cp = ord(char)
- # We treat all non-letter/number ASCII as punctuation.
- # Characters such as "^", "$", and "`" are not in the Unicode
- # Punctuation class but we treat them as punctuation anyways, for
- # consistency.
- if ((cp >= 33 and cp <= 47) or (cp >= 58 and cp <= 64) or
- (cp >= 91 and cp <= 96) or (cp >= 123 and cp <= 126)):
- return True
- cat = unicodedata.category(char)
- if cat.startswith("P"):
- return True
- return False
diff --git a/NLP/16.9 XLNet/README.md b/NLP/16.9 XLNet/README.md
deleted file mode 100644
index 2f0fffe..0000000
--- a/NLP/16.9 XLNet/README.md
+++ /dev/null
@@ -1,176 +0,0 @@
-## 目录
-- [1. 什么是XLNet](#1-什么是xlnet)
-- [2. 自回归语言模型(Autoregressive LM)](#2-自回归语言模型autoregressive-lm)
-- [3. 自编码语言模型(Autoencoder LM)](#3-自编码语言模型autoencoder-lm)
-- [4. XLNet模型](#4-xlnet模型)
- - [4.1 排列语言建模(Permutation Language Modeling)](#41-排列语言建模permutation-language-modeling)
- - [4.2 Transformer XL](#42-transformer-xl)
-- [5. XLNet与BERT比较](#5-xlnet与bert比较)
-- [6. 代码实现](#6-代码实现)
-- [7. 参考文献](#7-参考文献)
-
-## 1. 什么是XLNet
-
-XLNet 是一个类似 BERT 的模型,而不是完全不同的模型。总之,**XLNet是一种通用的自回归预训练方法**。它是CMU和Google Brain团队在2019年6月份发布的模型,最终,XLNet 在 20 个任务上超过了 BERT 的表现,并在 18 个任务上取得了当前最佳效果(state-of-the-art),包括机器问答、自然语言推断、情感分析和文档排序。
-
-作者表示,BERT 这样基于去噪自编码器的预训练模型可以很好地建模双向语境信息,性能优于基于自回归语言模型的预训练方法。然而,由于需要 mask 一部分输入,BERT 忽略了被 mask 位置之间的依赖关系,因此出现预训练和微调效果的差异(pretrain-finetune discrepancy)。
-
-基于这些优缺点,该研究提出了一种泛化的自回归预训练模型 XLNet。XLNet 可以:
-
-1. 通过最大化所有可能的因式分解顺序的对数似然,学习双向语境信息;
-2. 用自回归本身的特点克服 BERT 的缺点;
-3. 此外,XLNet 还融合了当前最优自回归模型 Transformer-XL 的思路。
-
-
-
-## 2. 自回归语言模型(Autoregressive LM)
-
-在ELMO/BERT出来之前,大家通常讲的语言模型其实是根据上文内容预测下一个可能跟随的单词,就是常说的自左向右的语言模型任务,或者反过来也行,就是根据下文预测前面的单词,这种类型的LM被称为自回归语言模型。GPT 就是典型的自回归语言模型。ELMO尽管看上去利用了上文,也利用了下文,但是本质上仍然是自回归LM,这个跟模型具体怎么实现有关系。ELMO是做了两个方向(从左到右以及从右到左两个方向的语言模型),但是是分别有两个方向的自回归LM,然后把LSTM的两个方向的隐节点状态拼接到一起,来体现双向语言模型这个事情的。所以其实是两个自回归语言模型的拼接,本质上仍然是自回归语言模型。
-
-自回归语言模型有优点有缺点:
-
-**缺点**是只能利用上文或者下文的信息,不能同时利用上文和下文的信息,当然,貌似ELMO这种双向都做,然后拼接看上去能够解决这个问题,因为融合模式过于简单,所以效果其实并不是太好。
-
-**优点**其实跟下游NLP任务有关,比如生成类NLP任务,比如文本摘要,机器翻译等,在实际生成内容的时候,就是从左向右的,自回归语言模型天然匹配这个过程。而Bert这种DAE模式,在生成类NLP任务中,就面临训练过程和应用过程不一致的问题,导致生成类的NLP任务到目前为止都做不太好。
-
-
-
-## 3. 自编码语言模型(Autoencoder LM)
-
-自回归语言模型只能根据上文预测下一个单词,或者反过来,只能根据下文预测前面一个单词。相比而言,Bert通过在输入X中随机Mask掉一部分单词,然后预训练过程的主要任务之一是根据上下文单词来预测这些被Mask掉的单词,如果你对Denoising Autoencoder比较熟悉的话,会看出,这确实是典型的DAE的思路。那些被Mask掉的单词就是在输入侧加入的所谓噪音。类似Bert这种预训练模式,被称为DAE LM。
-
-这种DAE LM的优缺点正好和自回归LM反过来,它能比较自然地融入双向语言模型,同时看到被预测单词的上文和下文,这是好处。缺点是啥呢?主要在输入侧引入[Mask]标记,导致预训练阶段和Fine-tuning阶段不一致的问题,因为Fine-tuning阶段是看不到[Mask]标记的。DAE吗,就要引入噪音,[Mask] 标记就是引入噪音的手段,这个正常。
-
-XLNet的出发点就是:能否融合自回归LM和DAE LM两者的优点。就是说如果站在自回归LM的角度,如何引入和双向语言模型等价的效果;如果站在DAE LM的角度看,它本身是融入双向语言模型的,如何抛掉表面的那个[Mask]标记,让预训练和Fine-tuning保持一致。当然,XLNet还讲到了一个Bert被Mask单词之间相互独立的问题。
-
-
-
-## 4. XLNet模型
-
-### 4.1 排列语言建模(Permutation Language Modeling)
-
-Bert的自编码语言模型也有对应的缺点,就是XLNet在文中指出的:
-
-1. 第一个预训练阶段因为采取引入[Mask]标记来Mask掉部分单词的训练模式,而Fine-tuning阶段是看不到这种被强行加入的Mask标记的,所以两个阶段存在使用模式不一致的情形,这可能会带来一定的性能损失;
-2. 另外一个是,Bert在第一个预训练阶段,假设句子中多个单词被Mask掉,这些被Mask掉的单词之间没有任何关系,是条件独立的,而有时候这些单词之间是有关系的。
-
-上面两点是XLNet在第一个预训练阶段,相对Bert来说要解决的两个问题。
-
-其实思路也比较简洁,可以这么思考:XLNet仍然遵循两阶段的过程,第一个阶段是语言模型预训练阶段;第二阶段是任务数据Fine-tuning阶段。它主要希望改动第一个阶段,就是说不像Bert那种带Mask符号的Denoising-autoencoder的模式,而是采用自回归LM的模式。就是说,看上去输入句子X仍然是自左向右的输入,看到Ti单词的上文Context_before,来预测Ti这个单词。但是又希望在Context_before里,不仅仅看到上文单词,也能看到Ti单词后面的下文Context_after里的下文单词,这样的话,Bert里面预训练阶段引入的Mask符号就不需要了,于是在预训练阶段,看上去是个标准的从左向右过程,Fine-tuning当然也是这个过程,于是两个环节就统一起来。当然,这是目标。剩下是怎么做到这一点的问题。
-
-
-
-首先,需要强调一点,尽管上面讲的是把句子X的单词排列组合后,再随机抽取例子作为输入,但是,实际上你是不能这么做的,因为Fine-tuning阶段你不可能也去排列组合原始输入。所以,就必须让预训练阶段的输入部分,看上去仍然是x1,x2,x3,x4这个输入顺序,但是可以在Transformer部分做些工作,来达成我们希望的目标。
-
-具体而言,XLNet采取了Attention掩码的机制,你可以理解为,当前的输入句子是X,要预测的单词Ti是第i个单词,前面1到i-1个单词,在输入部分观察,并没发生变化,该是谁还是谁。但是在Transformer内部,通过Attention掩码,从X的输入单词里面,也就是Ti的上文和下文单词中,随机选择i-1个,放到Ti的上文位置中,把其它单词的输入通过Attention掩码隐藏掉,于是就能够达成我们期望的目标(当然这个所谓放到Ti的上文位置,只是一种形象的说法,其实在内部,就是通过Attention Mask,把其它没有被选到的单词Mask掉,不让它们在预测单词Ti的时候发生作用,如此而已。看着就类似于把这些被选中的单词放到了上文Context_before的位置了)。
-
-具体实现的时候,XLNet是用“双流自注意力模型”实现的,细节可以参考论文,但是基本思想就如上所述,双流自注意力机制只是实现这个思想的具体方式,理论上,你可以想出其它具体实现方式来实现这个基本思想,也能达成让Ti看到下文单词的目标。
-
-这里简单说下“**双流自注意力机制**”,一个是内容流自注意力,其实就是标准的Transformer的计算过程;主要是引入了Query流自注意力,这个是干嘛的呢?其实就是用来代替Bert的那个[Mask]标记的,因为XLNet希望抛掉[Mask]标记符号,但是比如知道上文单词x1,x2,要预测单词x3,此时在x3对应位置的Transformer最高层去预测这个单词,但是输入侧不能看到要预测的单词x3,Bert其实是直接引入[Mask]标记来覆盖掉单词x3的内容的,等于说[Mask]是个通用的占位符号。而XLNet因为要抛掉[Mask]标记,但是又不能看到x3的输入,于是Query流,就直接忽略掉x3输入了,只保留这个位置信息,用参数w来代表位置的embedding编码。其实XLNet只是扔了表面的[Mask]占位符号,内部还是引入Query流来忽略掉被Mask的这个单词。和Bert比,只是实现方式不同而已。
-
-
-
-上面讲的Permutation Language Model是XLNet的主要理论创新,所以介绍的比较多,从模型角度讲,这个创新还是挺有意思的,因为它开启了自回归语言模型如何引入下文的一个思路,相信对于后续工作会有启发。当然,XLNet不仅仅做了这些,它还引入了其它的因素,也算是一个当前有效技术的集成体。感觉**XLNet就是Bert、GPT 2.0和Transformer XL的综合体变身**:
-
-1. 首先,它通过PLM(Permutation Language Model)预训练目标,吸收了Bert的双向语言模型;
-2. 然后,GPT2.0的核心其实是更多更高质量的预训练数据,这个明显也被XLNet吸收进来了;
-3. 再然后,Transformer XL的主要思想也被吸收进来,它的主要目标是解决Transformer对于长文档NLP应用不够友好的问题。
-
-
-
-### 4.2 Transformer XL
-
-目前在NLP领域中,处理语言建模问题有两种最先进的架构:RNN和Transformer。RNN按照序列顺序逐个学习输入的单词或字符之间的关系,而Transformer则接收一整段序列,然后使用self-attention机制来学习它们之间的依赖关系。这两种架构目前来看都取得了令人瞩目的成就,但它们都局限在捕捉长期依赖性上。
-
-为了解决这一问题,CMU联合Google Brain在2019年1月推出的一篇新论文《Transformer-XL:Attentive Language Models beyond a Fixed-Length Context》同时结合了RNN序列建模和Transformer自注意力机制的优点,在输入数据的每个段上使用Transformer的注意力模块,并使用循环机制来学习连续段之间的依赖关系。
-
-
-
-#### 4.2.1 vanilla Transformer
-
-为何要提这个模型?因为Transformer-XL是基于这个模型进行的改进。
-
-Al-Rfou等人基于Transformer提出了一种训练语言模型的方法,来根据之前的字符预测片段中的下一个字符。例如,它使用 ![[公式]](https://www.zhihu.com/equation?tex=x_1,x_2,...,x_{n-1})预测字符 ![[公式]](https://www.zhihu.com/equation?tex=x_n),而在 ![[公式]](https://www.zhihu.com/equation?tex=x_n) 之后的序列则被mask掉。论文中使用64层模型,并仅限于处理 512个字符这种相对较短的输入,因此它将输入分成段,并分别从每个段中进行学习,如下图所示。 在测试阶段如需处理较长的输入,该模型会在每一步中将输入向右移动一个字符,以此实现对单个字符的预测。
-
-
-
-该模型在常用的数据集如enwik8和text8上的表现比RNN模型要好,但它仍有以下缺点:
-
-- **上下文长度受限**:字符之间的最大依赖距离受输入长度的限制,模型看不到出现在几个句子之前的单词。
-- **上下文碎片**:对于长度超过512个字符的文本,都是从头开始单独训练的。段与段之间没有上下文依赖性,会让训练效率低下,也会影响模型的性能。
-- **推理速度慢**:在测试阶段,每次预测下一个单词,都需要重新构建一遍上下文,并从头开始计算,这样的计算速度非常慢。
-
-
-
-#### 4.2.2 Transformer XL
-
-Transformer-XL架构在vanilla Transformer的基础上引入了两点创新:循环机制(Recurrence Mechanism)和相对位置编码(Relative Positional Encoding),以克服vanilla Transformer的缺点。与vanilla Transformer相比,Transformer-XL的另一个优势是它可以被用于单词级和字符级的语言建模。
-
-1. **引入循环机制**
-
- 与vanilla Transformer的基本思路一样,Transformer-XL仍然是使用分段的方式进行建模,但其与vanilla Transformer的本质不同是在于引入了段与段之间的循环机制,使得当前段在建模的时候能够利用之前段的信息来实现长期依赖性。如下图所示:
-
- 
-
- 在训练阶段,处理后面的段时,每个隐藏层都会接收两个输入:
-
- - 该段的前面隐藏层的输出,与vanilla Transformer相同(上图的灰色线)。
- - 前面段的隐藏层的输出(上图的绿色线),可以使模型创建长期依赖关系。
-
- 这两个输入会被拼接,然后用于计算当前段的Key和Value矩阵。
-
- 该方法可以利用前面更多段的信息,测试阶段也可以获得更长的依赖。在测试阶段,与vanilla Transformer相比,其速度也会更快。在vanilla Transformer中,一次只能前进一个step,并且需要重新构建段,并全部从头开始计算;而在Transformer-XL中,每次可以前进一整个段,并利用之前段的数据来预测当前段的输出。
-
-
-
-2. **相对位置编码**
-
- 在Transformer中,一个重要的地方在于其考虑了序列的位置信息。在分段的情况下,如果仅仅对于每个段仍直接使用Transformer中的位置编码,即每个不同段在同一个位置上的表示使用相同的位置编码,就会出现问题。比如,第i−2i-2i−2段和第i−1i-1i−1段的第一个位置将具有相同的位置编码,但它们对于第iii段的建模重要性显然并不相同(例如第i−2i-2i−2段中的第一个位置重要性可能要低一些)。因此,需要对这种位置进行区分。
-
- 论文对于这个问题,提出了一种新的位置编码的方式,即会根据词之间的相对距离而非像Transformer中的绝对位置进行编码。从另一个角度来解读公式的话,可以将attention的计算分为如下四个部分:
-
- - 基于内容的“寻址”,即没有添加原始位置编码的原始分数。
- - 基于内容的位置偏置,即相对于当前内容的位置偏差。
- - 全局的内容偏置,用于衡量key的重要性。
- - 全局的位置偏置,根据query和key之间的距离调整重要性。
-
- 详细公式见:[Transformer-XL解读(论文 + PyTorch源码)](https://blog.csdn.net/magical_bubble/article/details/89060213)
-
-
-
-## 5. XLNet与BERT比较
-
-尽管看上去,XLNet在预训练机制引入的Permutation Language Model这种新的预训练目标,和Bert采用Mask标记这种方式,有很大不同。其实你深入思考一下,会发现,两者本质是类似的。
-
-**区别主要在于**:
-
-- Bert是直接在输入端显示地通过引入Mask标记,在输入侧隐藏掉一部分单词,让这些单词在预测的时候不发挥作用,要求利用上下文中其它单词去预测某个被Mask掉的单词;
-- 而XLNet则抛弃掉输入侧的Mask标记,通过Attention Mask机制,在Transformer内部随机Mask掉一部分单词(这个被Mask掉的单词比例跟当前单词在句子中的位置有关系,位置越靠前,被Mask掉的比例越高,位置越靠后,被Mask掉的比例越低),让这些被Mask掉的单词在预测某个单词的时候不发生作用。
-
-所以,本质上两者并没什么太大的不同,只是Mask的位置,Bert更表面化一些,XLNet则把这个过程隐藏在了Transformer内部而已。这样,就可以抛掉表面的[Mask]标记,解决它所说的预训练里带有[Mask]标记导致的和Fine-tuning过程不一致的问题。至于说XLNet说的,Bert里面被Mask掉单词的相互独立问题,也就是说,在预测某个被Mask单词的时候,其它被Mask单词不起作用,这个问题,你深入思考一下,其实是不重要的,因为XLNet在内部Attention Mask的时候,也会Mask掉一定比例的上下文单词,只要有一部分被Mask掉的单词,其实就面临这个问题。而如果训练数据足够大,其实不靠当前这个例子,靠其它例子,也能弥补被Mask单词直接的相互关系问题,因为总有其它例子能够学会这些单词的相互依赖关系。
-
-当然,XLNet这种改造,维持了表面看上去的自回归语言模型的从左向右的模式,这个Bert做不到,这个有明显的好处,就是对于生成类的任务,能够在维持表面从左向右的生成过程前提下,模型里隐含了上下文的信息。所以看上去,XLNet貌似应该对于生成类型的NLP任务,会比Bert有明显优势。另外,因为XLNet还引入了Transformer XL的机制,所以对于长文档输入类型的NLP任务,也会比Bert有明显优势。
-
-
-
-## 6. 代码实现
-
-[中文XLNet预训练模型](https://github.com/ymcui/Chinese-PreTrained-XLNet)
-
-
-
-## 7. 参考文献
-
-- [XLNet原理解读](https://blog.csdn.net/weixin_37947156/article/details/93035607)
-- [XLNet:运行机制及和Bert的异同比较](https://zhuanlan.zhihu.com/p/70257427)
-- [Transformer-XL解读(论文 + PyTorch源码)](https://blog.csdn.net/magical_bubble/article/details/89060213)
-
-
-
-------
-
-> 作者:[@mantchs](https://github.com/NLP-LOVE/ML-NLP)
->
-> GitHub:[https://github.com/NLP-LOVE/ML-NLP](https://github.com/NLP-LOVE/ML-NLP)
->
-> 欢迎大家加入讨论!共同完善此项目!群号:【541954936】
diff --git a/NLP/README.md b/NLP/README.md
index caf2e9d..db0c41b 100644
--- a/NLP/README.md
+++ b/NLP/README.md
@@ -13,11 +13,9 @@
| NLP | [16.4 textRNN & textCNN](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.4%20textRNN%20%26%20textCNN) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
| NLP | [16.5 序列到序列模型(seq2seq)](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.5%20seq2seq) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
| NLP | [16.6 注意力机制(Attention Mechanism)](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.6%20Attention) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
-| NLP | [16.7 Transformer模型](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.7%20Transformer) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
-| NLP | [16.8 BERT模型](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.8%20BERT) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
-| NLP | [16.9 XLNet模型](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.9%20XLNet) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
+| NLP | 16.7 BERT模型 | | |
-> 欢迎大家加入!共同完善此项目!NLP学习QQ2群【207576902】
+> 欢迎大家加入!共同完善此项目!
diff --git a/Project/README.md b/Project/README.md
index c93323f..6f98592 100644
--- a/Project/README.md
+++ b/Project/README.md
@@ -11,4 +11,4 @@
| 项目 | 19. 评论分析 | | |
-> 欢迎大家加入!共同完善此项目!NLP学习QQ2群【207576902】
+> 欢迎大家加入!共同完善此项目!
diff --git a/README.md b/README.md
index a142043..2cf3d1f 100644
--- a/README.md
+++ b/README.md
@@ -5,8 +5,7 @@
- 此项目以各个模块为切入点,让大家有一个清晰的知识体系。
- 此项目亦可拿来常读、常记以及面试时复习之用。
- 每一章里的问题都是面试时有可能问到的知识点,如有遗漏可联系我进行补充,结尾处都有算法的**实战代码案例**。
-- 有意向一起完成此项目或者有问题、有补充的可以加入~~NLP学习QQ群【541954936】~~
-- **1群已加满,请加2群,NLP学习QQ2群【207576902】**
+- **有意向一起完成此项目或者有问题、有补充的可以加入NLP学习QQ群【541954936】
**
------
@@ -49,9 +48,8 @@
| NLP | [16.4 textRNN & textCNN](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.4%20textRNN%20%26%20textCNN) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
| NLP | [16.5 序列到序列模型(seq2seq)](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.5%20seq2seq) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
| NLP | [16.6 注意力机制(Attention Mechanism)](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.6%20Attention) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
-| NLP | [16.7 Transformer模型](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.7%20Transformer) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
-| NLP | [16.8 BERT模型](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.8%20BERT) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
-| NLP | [16.9 XLNet模型](https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.9%20XLNet) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
+| NLP | 16.7 BERT模型 | | |
+| NLP | 16.8 XLNet模型 | | |
| 项目 | [17. 推荐系统(Recommendation System)](https://github.com/NLP-LOVE/ML-NLP/tree/master/Project/17.%20Recommendation%20System) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
| 项目 | [18. 智能客服(Intelligent Customer Service)](https://github.com/NLP-LOVE/ML-NLP/tree/master/Project/18.%20Intelligent%20Customer%20Service) | [@mantchs](https://github.com/NLP-LOVE) | 448966528 |
| 项目 | 19. 知识图谱(Knowledge Graph) | | |
@@ -59,4 +57,4 @@
-> 欢迎大家加入!共同完善此项目!NLP学习QQ2群【207576902】
+> 欢迎大家加入!共同完善此项目!
diff --git a/images/2019-9-28_21-34-11.png b/images/2019-9-28_21-34-11.png
deleted file mode 100644
index 76ceff8..0000000
Binary files a/images/2019-9-28_21-34-11.png and /dev/null differ
diff --git a/images/README.md b/images/README.md
deleted file mode 100644
index 8b13789..0000000
--- a/images/README.md
+++ /dev/null
@@ -1 +0,0 @@
-