1. ホーム
  2. python-3.x

[解決済み] ValueError: pysparkを使用してsparkで複数のSparkContextsを同時に実行できません。

2022-02-03 05:35:23

質問

私はsparkを使うのが初めてです、pysparkでこのコードを実行しようとしました。

from pyspark import SparkConf, SparkContext
import collections

conf = SparkConf().setMaster("local").setAppName("RatingsHistogram")
sc = SparkContext(conf = conf)

しかし、彼はこのようなエラーメッセージを伝えてきました。

Using Python version 3.5.2 (default, Jul  5 2016 11:41:13)
SparkSession available as 'spark'.
>>> from pyspark import SparkConf, SparkContext
>>> import collections
>>> conf = SparkConf().setMaster("local").setAppName("RatingsHistogram")
>>> sc = SparkContext(conf = conf)



   Traceback (most recent call last):
      File "<stdin>", line 1, in <module>
      File "C:\spark\python\pyspark\context.py", line 115, in __init__
        SparkContext._ensure_initialized(self, gateway=gateway, conf=conf)
      File "C:\spark\python\pyspark\context.py", line 275, in _ensure_initialized
        callsite.function, callsite.file, callsite.linenum))
    ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[*]) created by getOrCreate at C:\spark\bin\..\python\pyspark\shell.py:43
    >>>

私はバージョンSpark 2.1.1とPython 3.5.2を持っている、私は検索して、それがscの問題であることがわかった、彼はそれを読むことができなかったが、なぜ、いつまでない、誰かここにヘルプを持っている。

解決方法は?

これを試してみてください。

sc = SparkContext.getOrCreate();