Hi Folks,
Since databricks is now asking to use DBX instead of databricks-connect ,We are trying to set up our local environment following the guide.
dbx by Databricks Labs - Azure Databricks | Microsoft Learn
Have create conf/deployment.yml and dbx/project.json and added to root folder of my repo.
Deployment file looks like below
build:
python: "pip"
environments:
default:
workflows:
- name: "dbx-xxxx-job"
spark_python_task:
python_file: "C:\framework\library\py\platformdata\tests\test_dbutils.py"
And I am getting below error while running
dbx execute workflowname -- cluster name =""
Any suggestion here?
โ
โ C:\Python\lib\site-packages\yaml\scanner.py:1149 in scan_flow_scalar โ
โ โ
โ 1146 โ โ start_mark = self.get_mark() โ
โ 1147 โ โ quote = self.peek() โ
โ 1148 โ โ self.forward() โ
โ โฑ 1149 โ โ chunks.extend(self.scan_flow_scalar_non_spaces(double, start_mark)) โ
โ 1150 โ โ while self.peek() != quote: โ
โ 1151 โ โ โ chunks.extend(self.scan_flow_scalar_spaces(double, start_mark)) โ
โ 1152 โ โ โ chunks.extend(self.scan_flow_scalar_non_spaces(double, start_mark)) โ
โ โ
โ C:\Python\lib\site-packages\yaml\scanner.py:1223 in scan_flow_scalar_non_spaces โ
โ โ
โ 1220 โ โ โ โ โ self.scan_line_break() โ
โ 1221 โ โ โ โ โ chunks.extend(self.scan_flow_scalar_breaks(double, start_mark)) โ
โ 1222 โ โ โ โ else: โ
โ โฑ 1223 โ โ โ โ โ raise ScannerError("while scanning a double-quoted scalar", start_ma โ
โ 1224 โ โ โ โ โ โ โ "found unknown escape character %r" % ch, self.get_mark()) โ
โ 1225 โ โ โ else: โ
โ 1226 โ โ โ โ return chunks