Main Content

이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.

모델링 및 예측

토픽모델단어을사용하여예측개발개발

LSA, LDA, 단어 임베딩 같은 머신러닝 기법과 모델을 사용하여 고차원 텍스트 데이터셋에서 군집을 찾고 특징을 추출할 수 있습니다. Text Analytics Toolbox™에서 생성한 특징은 다른 데이터 소스의 특징과 결합할 수 있습니다. 결합된 특징을 사용하여 텍스트, 숫자 등 다양한 유형의 데이터를 활용하는 머신러닝 모델을 빌드할 수 있습니다.

함수

모두확장

小词 Bag-of-words 모델
Bagofngrams n-grams모델
addDocument 词袋모델또는n-grams모델
removeDocument 词袋모델또는n-grams모델
删除InfrequentWords bag-of-words 모델에서 개수가 적은 단어 제거
removeInfrequentNgrams n-gram的袋모델에서빈도로나오는나오는n-gram제거
删除字 문서또는 bag-of-words 모델에서 선택한 단어 제거
removengrams n-grams모델모델n-gram제거
remove emptimentDocuments 토큰화된 문서 배열, bag-of-words 모델 또는 bag-of-n-grams 모델에서 빈 문서 제거
topkwords 词袋模型或LDA主题中最重要的词语
topkngrams 最常见的n-gram
编码 n-gram개수로개수로개수로개수로구성된인코딩인코딩
TFIDF TF-IDF(단어빈도-역문서빈)도행렬
加入 结合多个字袋或n-grams型号
vaderSentimentScores Sentiment scores with VADER algorithm
ratioSentimentScores Sentiment scores with ratio rule
fastTextWordEmbedding FastText단어단어단어임베딩임베딩
文字编码 단어를 인덱스로 매핑하는 단어 인코딩 모델
doc2sequence 将文档转换为深度学习的序列
wordEmbeddingLayer 딥러닝신경망위한단어임베딩계층
word2vec 단어를벡터에매핑하기
word2ind 단어를인덱스에매핑하기
vec2word 임베딩벡터를에매핑
Ind2word 인코딩인덱스단어에매핑하기
isVocabularyWord 단어가 단어 임베딩 또는 인코딩에 포함되었는지 테스트
ReadWordEmbedding 파일에서 단어 임베딩 읽어오기
Trainwordembedding 火车单词嵌入
写入wordembedding 단어 임베딩 파일 쓰기
wordEmbedding 단어를 벡터로 매핑하는 단어 임베딩 모델
提取物 문서에서 요약 추출
rakekeywords 使用耙子提取关键字
TextrankKeyWords 使用Textrank提取关键字
bleuEvaluationScore 用BLEU相似性评分评估翻译或汇总
rougeEvaluationScore Evaluate translation or summarization with ROUGE similarity score
BM25相似性 文档与BM25算法的相似性
cosineSimilarity 코사인유사도사용한문서유사도
textrankScores TextRank 알고리즘을 사용하여 문서 점수화
Lexrankscores lexrank알고리즘을하여문서화화
mmrscores 具有最大边际相关性(MMR)算法的文档评分
fitlda 拟合潜在的Dirichlet分配(LDA)模型
fitlsa Fit LSA model
恢复 Resume fitting LDA model
logp LDA模型的文档对数概率和拟合度的优点
predict 预测文档的顶级LDA主题
transform Transform documents into lower-dimensional space
ldamodel 潜在的Dirichlet分配(LDA)模型
lsaModel 潜在语义分析(LSA)模型
WordCloud 创建文字云图表,单词袋型号,n-grams型号或LDA模型
text -scatter 2-D 텍스트 산점도 플롯
TextScatter3 3-D 텍스트 산점도 플롯

도움말 항목

분류및모델링

감성분석및추출

딥러닝

언어지원