Предупреждение о блокировке при установке gensim

Я установил gensim (через pip) в Python. По завершении установки появляется следующее предупреждение:

C: \ Python27 \ lib \ site-packages \ gensim \ utils.py: 855: UserWarning: обнаружена Windows; aliasing chunkize to chunkize_serial warnings.warn ("обнаруженные ОС Windows; aliasing chunkize to chunkize_serial");

Как я могу это исправить?

Из-за этого предупреждения я не могу импортировать word2vec из gensim.models.

У меня есть следующие конфигурации: Python 2.7, gensim-0.13.4.1, numpy-1.11.3, scipy-0.18.1, pattern-2.6.

Вы можете подавить сообщение этим кодом перед импортом gensim:

import warnings warnings.filterwarnings(action='ignore', category=UserWarning, module='gensim') import gensim 

Я думаю, это не большая проблема. gensim просто сообщит вам, что они будут использовать псевдоним для разных функций, потому что вы используете специальные ОС.

проверьте код gensim.utils

 if os.name == 'nt': logger.info("detected Windows; aliasing chunkize to chunkize_serial") def chunkize(corpus, chunksize, maxsize=0, as_numpy=False): for chunk in chunkize_serial(corpus, chunksize, as_numpy=as_numpy): yield chunk else: def chunkize(corpus, chunksize, maxsize=0, as_numpy=False): """ Split a stream of values into smaller chunks. Each chunk is of length `chunksize`, except the last one which may be smaller. A once-only input stream (`corpus` from a generator) is ok, chunking is done efficiently via itertools. If `maxsize > 1`, don't wait idly in between successive chunk `yields`, but rather keep filling a short queue (of size at most `maxsize`) with forthcoming chunks in advance. This is realized by starting a separate process, and is meant to reduce I/O delays, which can be significant when `corpus` comes from a slow medium (like harddisk). If `maxsize==0`, don't fool around with parallelism and simply yield the chunksize via `chunkize_serial()` (no I/O optimizations). >>> for chunk in chunkize(range(10), 4): print(chunk) [0, 1, 2, 3] [4, 5, 6, 7] [8, 9] """ assert chunksize > 0 if maxsize > 0: q = multiprocessing.Queue(maxsize=maxsize) worker = InputQueue(q, corpus, chunksize, maxsize=maxsize, as_numpy=as_numpy) worker.daemon = True worker.start() while True: chunk = [q.get(block=True)] if chunk[0] is None: break yield chunk.pop() else: for chunk in chunkize_serial(corpus, chunksize, as_numpy=as_numpy): yield chunk