AI ਦੇ ਉਹ ਵੱਡੇ ਨੈਤਿਕ ਸਵਾਲ ਜਿਨ੍ਹਾਂ ਤੋਂ ਬਚਣਾ ਮੁਸ਼ਕਿਲ ਹੈ
ਸਿਲੀਕਾਨ ਵੈਲੀ ਨੇ ਵਾਅਦਾ ਕੀਤਾ ਸੀ ਕਿ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਮਨੁੱਖਤਾ ਦੀਆਂ ਸਭ ਤੋਂ ਮੁਸ਼ਕਿਲ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਹੱਲ ਕਰੇਗੀ। ਪਰ ਇਸ ਦੀ ਬਜਾਏ, ਇਸ ਤਕਨਾਲੋਜੀ ਨੇ ਅਜਿਹੀਆਂ ਨਵੀਆਂ ਮੁਸ਼ਕਲਾਂ ਪੈਦਾ ਕਰ ਦਿੱਤੀਆਂ ਹਨ ਜਿਨ੍ਹਾਂ ਨੂੰ ਕੋਈ ਵੀ ਕੋਡ ਹੱਲ ਨਹੀਂ ਕਰ ਸਕਦਾ। ਅਸੀਂ ਹੁਣ ਹੈਰਾਨੀ ਦੇ ਦੌਰ ਤੋਂ ਨਿਕਲ ਕੇ ਜਵਾਬਦੇਹੀ ਦੇ ਸਖ਼ਤ ਦੌਰ ਵਿੱਚ ਦਾਖਲ ਹੋ ਰਹੇ ਹਾਂ। ਅਸਲ ਮੁੱਦਾ ਭਵਿੱਖ ਵਿੱਚ ਮਸ਼ੀਨਾਂ ਦੇ ਵਿਦਰੋਹ ਦਾ ਨਹੀਂ, ਸਗੋਂ ਇਸ ਗੱਲ ਦਾ ਹੈ ਕਿ ਇਹ ਸਿਸਟਮ ਕਿਵੇਂ ਬਣਾਏ ਅਤੇ ਵਰਤੇ ਜਾ ਰਹੇ ਹਨ। ਹਰ ਵੱਡਾ ਲੈਂਗੂਏਜ ਮਾਡਲ ਮਨੁੱਖੀ ਮਿਹਨਤ ਅਤੇ ਇੰਟਰਨੈੱਟ ਤੋਂ ਇਕੱਠੇ ਕੀਤੇ ਡੇਟਾ ‘ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ। ਇਹ ਉਹਨਾਂ ਕੰਪਨੀਆਂ ਅਤੇ ਉਹਨਾਂ ਲੋਕਾਂ ਵਿਚਕਾਰ ਇੱਕ ਬੁਨਿਆਦੀ ਟਕਰਾਅ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜਿਨ੍ਹਾਂ ਦਾ ਕੰਮ ਇਹਨਾਂ ਟੂਲਸ ਨੂੰ ਸ਼ਕਤੀ ਦਿੰਦਾ ਹੈ। ਯੂਰਪ ਅਤੇ ਅਮਰੀਕਾ ਦੇ ਰੈਗੂਲੇਟਰ ਹੁਣ ਇਹ ਪੁੱਛ ਰਹੇ ਹਨ ਕਿ ਜਦੋਂ ਕੋਈ ਸਿਸਟਮ ਅਜਿਹੀ ਗਲਤੀ ਕਰਦਾ ਹੈ ਜੋ ਕਿਸੇ ਦੀ ਜ਼ਿੰਦਗੀ ਬਰਬਾਦ ਕਰ ਦੇਵੇ, ਤਾਂ ਉਸ ਲਈ ਕੌਣ ਜ਼ਿੰਮੇਵਾਰ ਹੈ। ਇਸ ਦਾ ਜਵਾਬ ਅਜੇ ਵੀ ਅਸਪਸ਼ਟ ਹੈ ਕਿਉਂਕਿ ਕਾਨੂੰਨੀ ਢਾਂਚੇ ਅਜਿਹੇ ਸਾਫਟਵੇਅਰ ਲਈ ਨਹੀਂ ਬਣਾਏ ਗਏ ਸਨ ਜੋ ਇੰਨੀ ਖੁਦਮੁਖਤਿਆਰੀ ਨਾਲ ਕੰਮ ਕਰਦੇ ਹਨ। ਅਸੀਂ ਹੁਣ ਇਸ ਗੱਲ ‘ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕਰ ਰਹੇ ਹਾਂ ਕਿ ਤਕਨਾਲੋਜੀ ਕੀ ਕਰ ਸਕਦੀ ਹੈ, ਇਸ ਦੀ ਬਜਾਏ ਇਹ ਕਿ ਜਨਤਕ ਜੀਵਨ ਵਿੱਚ ਇਸ ਨੂੰ ਕੀ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ।
ਆਟੋਮੇਟਿਡ ਫੈਸਲੇ ਲੈਣ ਦੀਆਂ ਮੁਸ਼ਕਲਾਂ
ਆਧੁਨਿਕ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਅਸਲ ਵਿੱਚ ਇੱਕ ਪ੍ਰੀਡਿਕਸ਼ਨ ਇੰਜਣ ਹੈ। ਇਹ ਸੱਚ ਜਾਂ ਨੈਤਿਕਤਾ ਨੂੰ ਨਹੀਂ ਸਮਝਦਾ। ਇਹ ਵਿਸ਼ਾਲ ਡੇਟਾਸੈਟਾਂ ਦੇ ਆਧਾਰ ‘ਤੇ ਅਗਲੇ ਸ਼ਬਦ ਜਾਂ ਪਿਕਸਲ ਦੀ ਸੰਭਾਵਨਾ ਦੀ ਗਣਨਾ ਕਰਦਾ ਹੈ। ਇਹ ਸਮਝ ਦੀ ਘਾਟ ਮਸ਼ੀਨ ਦੇ ਨਤੀਜਿਆਂ ਅਤੇ ਮਨੁੱਖੀ ਨਿਆਂ ਦੀਆਂ ਲੋੜਾਂ ਵਿਚਕਾਰ ਇੱਕ ਪਾੜਾ ਪੈਦਾ ਕਰਦੀ ਹੈ। ਜਦੋਂ ਕੋਈ ਬੈਂਕ ਕ੍ਰੈਡਿਟ ਯੋਗਤਾ ਨਿਰਧਾਰਤ ਕਰਨ ਲਈ ਐਲਗੋਰਿਦਮ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ, ਤਾਂ ਸਿਸਟਮ ਅਜਿਹੇ ਪੈਟਰਨਾਂ ਦੀ ਪਛਾਣ ਕਰ ਸਕਦਾ ਹੈ ਜੋ ਨਸਲ ਜਾਂ ਜ਼ਿਪ ਕੋਡ ਨਾਲ ਜੁੜੇ ਹੁੰਦੇ ਹਨ। ਇਹ ਇਸ ਲਈ ਨਹੀਂ ਕਿ ਮਸ਼ੀਨ ਸੋਚ ਸਕਦੀ ਹੈ, ਸਗੋਂ ਇਸ ਲਈ ਕਿਉਂਕਿ ਜਿਸ ਇਤਿਹਾਸਕ ਡੇਟਾ ‘ਤੇ ਇਸ ਨੂੰ ਟ੍ਰੇਨ ਕੀਤਾ ਗਿਆ ਹੈ, ਉਸ ਵਿੱਚ ਇਹ ਪੱਖਪਾਤ ਮੌਜੂਦ ਹਨ। ਕੰਪਨੀਆਂ ਅਕਸਰ ਇਹਨਾਂ ਪ੍ਰਕਿਰਿਆਵਾਂ ਨੂੰ ਗੁਪਤ ਰੱਖਦੀਆਂ ਹਨ, ਜਿਸ ਨਾਲ ਕਿਸੇ ਅਸਵੀਕਾਰ ਕੀਤੇ ਗਏ ਬਿਨੈਕਾਰ ਲਈ ਇਹ ਜਾਣਨਾ ਅਸੰਭਵ ਹੋ ਜਾਂਦਾ ਹੈ ਕਿ ਉਨ੍ਹਾਂ ਨੂੰ ਕਿਉਂ ਰੱਦ ਕੀਤਾ ਗਿਆ। ਇਹ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਘਾਟ ਆਟੋਮੇਸ਼ਨ ਦੇ ਮੌਜੂਦਾ ਦੌਰ ਦੀ ਮੁੱਖ ਵਿਸ਼ੇਸ਼ਤਾ ਹੈ। ਇਸ ਨੂੰ ਅਕਸਰ ‘ਬਲੈਕ ਬਾਕਸ’ ਸਮੱਸਿਆ ਕਿਹਾ ਜਾਂਦਾ ਹੈ।
ਤਕਨੀਕੀ ਹਕੀਕਤ ਇਹ ਹੈ ਕਿ ਇਹ ਮਾਡਲ ਓਪਨ ਇੰਟਰਨੈੱਟ ‘ਤੇ ਟ੍ਰੇਨ ਕੀਤੇ ਜਾਂਦੇ ਹਨ, ਜੋ ਮਨੁੱਖੀ ਗਿਆਨ ਅਤੇ ਪੱਖਪਾਤ ਦੋਵਾਂ ਦਾ ਭੰਡਾਰ ਹੈ। ਡਿਵੈਲਪਰ ਇਸ ਡੇਟਾ ਨੂੰ ਫਿਲਟਰ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਦੇ ਹਨ, ਪਰ ਇਸ ਦੇ ਵਿਸ਼ਾਲ ਪੈਮਾਨੇ ਕਾਰਨ ਸੰਪੂਰਨ ਕਿਊਰੇਸ਼ਨ ਅਸੰਭਵ ਹੈ। ਜਦੋਂ ਅਸੀਂ AI ਨੈਤਿਕਤਾ ਬਾਰੇ ਗੱਲ ਕਰਦੇ ਹਾਂ, ਤਾਂ ਅਸੀਂ ਅਸਲ ਵਿੱਚ ਇਹ ਗੱਲ ਕਰ ਰਹੇ ਹੁੰਦੇ ਹਾਂ ਕਿ ਅਸੀਂ ਉਹਨਾਂ ਗਲਤੀਆਂ ਨੂੰ ਕਿਵੇਂ ਸੰਭਾਲਦੇ ਹਾਂ ਜੋ ਇਹ ਸਿਸਟਮ ਲਾਜ਼ਮੀ ਤੌਰ ‘ਤੇ ਪੈਦਾ ਕਰਦੇ ਹਨ। ਡਿਪਲਾਇਮੈਂਟ ਦੀ ਗਤੀ ਅਤੇ ਸੁਰੱਖਿਆ ਦੀ ਲੋੜ ਵਿਚਕਾਰ ਤਣਾਅ ਵਧ ਰਿਹਾ ਹੈ। ਬਹੁਤ ਸਾਰੀਆਂ ਕੰਪਨੀਆਂ ਮਾਰਕੀਟ ਸ਼ੇਅਰ ਗੁਆਉਣ ਦੇ ਡਰੋਂ ਉਤਪਾਦਾਂ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸਮਝੇ ਜਾਣ ਤੋਂ ਪਹਿਲਾਂ ਹੀ ਰਿਲੀਜ਼ ਕਰਨ ਲਈ ਦਬਾਅ ਮਹਿਸੂਸ ਕਰਦੀਆਂ ਹਨ। ਇਹ ਇੱਕ ਅਜਿਹੀ ਸਥਿਤੀ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜਿੱਥੇ ਜਨਤਾ ਅਣਪ੍ਰਮਾਣਿਤ ਸਾਫਟਵੇਅਰ ਲਈ ਅਣਇੱਛਤ ਟੈਸਟ ਵਿਸ਼ੇ ਬਣ ਜਾਂਦੀ ਹੈ। ਕਾਨੂੰਨੀ ਪ੍ਰਣਾਲੀ ਬਦਲਾਅ ਦੀ ਗਤੀ ਨਾਲ ਤਾਲਮੇਲ ਬਿਠਾਉਣ ਲਈ ਸੰਘਰਸ਼ ਕਰ ਰਹੀ ਹੈ ਕਿਉਂਕਿ ਅਦਾਲਤਾਂ ਇਹ ਬਹਿਸ ਕਰ ਰਹੀਆਂ ਹਨ ਕਿ ਕੀ ਕਿਸੇ ਸਾਫਟਵੇਅਰ ਡਿਵੈਲਪਰ ਨੂੰ ਉਸਦੀ ਰਚਨਾ ਦੇ ਭੁਲੇਖਿਆਂ (hallucinations) ਲਈ ਜ਼ਿੰਮੇਵਾਰ ਠਹਿਰਾਇਆ ਜਾ ਸਕਦਾ ਹੈ।
ਨਵੀਂ ਗਲੋਬਲ ਡਿਜੀਟਲ ਵੰਡ
ਇਹਨਾਂ ਸਿਸਟਮਾਂ ਦਾ ਪ੍ਰਭਾਵ ਦੁਨੀਆ ਭਰ ਵਿੱਚ ਬਰਾਬਰ ਨਹੀਂ ਹੈ। ਜਦੋਂ ਕਿ ਪ੍ਰਮੁੱਖ AI ਫਰਮਾਂ ਦੇ ਹੈੱਡਕੁਆਰਟਰ ਕੁਝ ਅਮੀਰ ਦੇਸ਼ਾਂ ਵਿੱਚ ਸਥਿਤ ਹਨ, ਉਨ੍ਹਾਂ ਦੇ ਕੰਮ ਦੇ ਨਤੀਜੇ ਹਰ ਜਗ੍ਹਾ ਮਹਿਸੂਸ ਕੀਤੇ ਜਾਂਦੇ ਹਨ। ਗਲੋਬਲ ਸਾਊਥ ਵਿੱਚ ਮਜ਼ਦੂਰਾਂ ਦੇ ਸ਼ੋਸ਼ਣ ਦਾ ਇੱਕ ਨਵਾਂ ਰੂਪ ਉਭਰ ਰਿਹਾ ਹੈ। ਕੀਨੀਆ ਅਤੇ ਫਿਲੀਪੀਨਜ਼ ਵਰਗੇ ਦੇਸ਼ਾਂ ਵਿੱਚ ਹਜ਼ਾਰਾਂ ਵਰਕਰਾਂ ਨੂੰ ਡੇਟਾ ਨੂੰ ਲੇਬਲ ਕਰਨ ਅਤੇ ਦੁਖਦਾਈ ਸਮੱਗਰੀ ਨੂੰ ਫਿਲਟਰ ਕਰਨ ਲਈ ਬਹੁਤ ਘੱਟ ਮਿਹਨਤਾਨਾ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ। ਇਹ ਵਰਕਰ ਅਦਿੱਖ ਸੁਰੱਖਿਆ ਜਾਲ ਹਨ ਜੋ AI ਨੂੰ ਜ਼ਹਿਰੀਲੀ ਸਮੱਗਰੀ ਪੈਦਾ ਕਰਨ ਤੋਂ ਰੋਕਦੇ ਹਨ, ਫਿਰ ਵੀ ਉਹ ਉਦਯੋਗ ਦੇ ਮੁਨਾਫੇ ਵਿੱਚ ਸ਼ਾਇਦ ਹੀ ਹਿੱਸਾ ਲੈਂਦੇ ਹਨ। ਇਹ ਇੱਕ ਅਸੰਤੁਲਨ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜਿੱਥੇ ਅਮੀਰ ਦੇਸ਼ ਟੂਲਸ ਨੂੰ ਕੰਟਰੋਲ ਕਰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਵਿਕਾਸਸ਼ੀਲ ਦੇਸ਼ ਉਨ੍ਹਾਂ ਨੂੰ ਕਾਇਮ ਰੱਖਣ ਲਈ ਲੋੜੀਂਦਾ ਕੱਚਾ ਮਾਲ ਅਤੇ ਡੇਟਾ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ।
ਸੱਭਿਆਚਾਰਕ ਦਬਦਬਾ ਅੰਤਰਰਾਸ਼ਟਰੀ ਭਾਈਚਾਰੇ ਲਈ ਇੱਕ ਹੋਰ ਮਹੱਤਵਪੂਰਨ ਚਿੰਤਾ ਹੈ। ਜ਼ਿਆਦਾਤਰ ਵੱਡੇ ਮਾਡਲ ਮੁੱਖ ਤੌਰ ‘ਤੇ ਅੰਗਰੇਜ਼ੀ ਭਾਸ਼ਾ ਦੇ ਡੇਟਾ ਅਤੇ ਪੱਛਮੀ ਸੱਭਿਆਚਾਰਕ ਨਿਯਮਾਂ ‘ਤੇ ਟ੍ਰੇਨ ਕੀਤੇ ਜਾਂਦੇ ਹਨ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਸਿਸਟਮ ਅਕਸਰ ਸਥਾਨਕ ਸੰਦਰਭ ਜਾਂ ਘੱਟ ਡਿਜੀਟਲ ਸਰੋਤਾਂ ਵਾਲੀਆਂ ਭਾਸ਼ਾਵਾਂ ਨੂੰ ਸਮਝਣ ਵਿੱਚ ਅਸਫਲ ਰਹਿੰਦੇ ਹਨ। ਜਦੋਂ ਇਹ ਟੂਲ ਨਿਰਯਾਤ ਕੀਤੇ ਜਾਂਦੇ ਹਨ, ਤਾਂ ਉਹ ਸਥਾਨਕ ਗਿਆਨ ਨੂੰ ਇੱਕ ਸਮਾਨ ਪੱਛਮੀ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਨਾਲ ਬਦਲਣ ਦਾ ਜੋਖਮ ਪੈਦਾ ਕਰਦੇ ਹਨ। ਇਹ ਸਿਰਫ ਇੱਕ ਤਕਨੀਕੀ ਨੁਕਸ ਨਹੀਂ ਹੈ, ਸਗੋਂ ਸੱਭਿਆਚਾਰਕ ਵਿਭਿੰਨਤਾ ਲਈ ਇੱਕ ਖਤਰਾ ਹੈ। ਸਰਕਾਰਾਂ ਇਹ ਸਮਝਣ ਲੱਗੀਆਂ ਹਨ ਕਿ ਵਿਦੇਸ਼ੀ AI ਬੁਨਿਆਦੀ ਢਾਂਚੇ ‘ਤੇ ਨਿਰਭਰ ਰਹਿਣਾ ਨਿਰਭਰਤਾ ਦੀ ਇੱਕ ਨਵੀਂ ਕਿਸਮ ਪੈਦਾ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਕਿਸੇ ਦੇਸ਼ ਕੋਲ ਆਪਣੀ ਖੁਦ ਦੀ AI ਸਮਰੱਥਾ ਨਹੀਂ ਹੈ, ਤਾਂ ਉਸਨੂੰ ਉਹਨਾਂ ਕੰਪਨੀਆਂ ਦੇ ਨਿਯਮਾਂ ਅਤੇ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨੀ ਪਵੇਗੀ ਜੋ ਸੇਵਾ ਪ੍ਰਦਾਨ ਕਰਦੀਆਂ ਹਨ। ਗਲੋਬਲ ਭਾਈਚਾਰਾ ਇਸ ਸਮੇਂ ਕਈ ਗੰਭੀਰ ਮੁੱਦਿਆਂ ਨਾਲ ਜੂਝ ਰਿਹਾ ਹੈ:
- ਕੁਝ ਨਿੱਜੀ ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਵਿੱਚ ਕੰਪਿਊਟਿੰਗ ਸ਼ਕਤੀ ਦਾ ਕੇਂਦਰੀਕਰਨ।
- ਪਾਣੀ ਦੀ ਕਮੀ ਵਾਲੇ ਖੇਤਰਾਂ ਵਿੱਚ ਵਿਸ਼ਾਲ ਮਾਡਲਾਂ ਨੂੰ ਟ੍ਰੇਨ ਕਰਨ ਦੀ ਵਾਤਾਵਰਣਕ ਕੀਮਤ।
- ਅੰਗਰੇਜ਼ੀ-ਕੇਂਦਰਿਤ ਮਾਡਲਾਂ ਦੁਆਰਾ ਹਾਵੀ ਡਿਜੀਟਲ ਸਪੇਸ ਵਿੱਚ ਸਥਾਨਕ ਭਾਸ਼ਾਵਾਂ ਦਾ ਖਾਤਮਾ।
- ਜੰਗ ਵਿੱਚ ਆਟੋਨੋਮਸ ਸਿਸਟਮਾਂ ਦੀ ਵਰਤੋਂ ‘ਤੇ ਅੰਤਰਰਾਸ਼ਟਰੀ ਸਮਝੌਤਿਆਂ ਦੀ ਘਾਟ।
- ਲੋਕਤੰਤਰੀ ਚੋਣਾਂ ਨੂੰ ਅਸਥਿਰ ਕਰਨ ਲਈ ਆਟੋਮੇਟਿਡ ਗਲਤ ਜਾਣਕਾਰੀ ਦੀ ਸੰਭਾਵਨਾ।
ਐਲਗੋਰਿਦਮ ਨਾਲ ਜੀਵਨ
ਸਾਰਾਹ ਦੇ ਜੀਵਨ ਦੇ ਇੱਕ ਦਿਨ ਬਾਰੇ ਸੋਚੋ, ਜੋ ਇੱਕ ਲੌਜਿਸਟਿਕ ਫਰਮ ਵਿੱਚ ਮੈਨੇਜਰ ਹੈ। ਉਸਦੀ ਸਵੇਰ ਉਸਦੀਆਂ ਈਮੇਲਾਂ ਦੇ AI-ਜਨਰੇਟਿਡ ਸਾਰਾਂਸ਼ ਨਾਲ ਸ਼ੁਰੂ ਹੁੰਦੀ ਹੈ। ਸਿਸਟਮ ਉਹਨਾਂ ਕੰਮਾਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ ਜੋ ਉਸਦੇ ਅਨੁਸਾਰ ਸਭ ਤੋਂ ਜ਼ਰੂਰੀ ਹਨ, ਪਰ ਇਹ ਇੱਕ ਪੁਰਾਣੇ ਗਾਹਕ ਦੀ ਇੱਕ ਸੂਖਮ ਸ਼ਿਕਾਇਤ ਨੂੰ ਗੁਆ ਦਿੰਦਾ ਹੈ ਕਿਉਂਕਿ ਸੈਂਟੀਮੈਂਟ ਐਨਾਲਿਸਿਸ ਟੂਲ ਵਿਅੰਗ ਨੂੰ ਨਹੀਂ ਪਛਾਣ ਸਕਿਆ। ਬਾਅਦ ਵਿੱਚ, ਉਹ ਇੱਕ ਕਰਮਚਾਰੀ ਲਈ ਪਰਫਾਰਮੈਂਸ ਰਿਵਿਊ ਲਿਖਣ ਲਈ ਇੱਕ ਜਨਰੇਟਿਵ ਟੂਲ ਦੀ ਵਰਤੋਂ ਕਰਦੀ ਹੈ। ਸਾਫਟਵੇਅਰ ਉਤਪਾਦਕਤਾ ਮੈਟ੍ਰਿਕਸ ਦੇ ਆਧਾਰ ‘ਤੇ ਘੱਟ ਰੇਟਿੰਗ ਦਾ ਸੁਝਾਅ ਦਿੰਦਾ ਹੈ ਜੋ ਉਸ ਸਮੇਂ ਨੂੰ ਨਹੀਂ ਗਿਣਦਾ ਜੋ ਕਰਮਚਾਰੀ ਨੇ ਨਵੇਂ ਭਰਤੀਆਂ ਨੂੰ ਸਿਖਾਉਣ ਵਿੱਚ ਬਿਤਾਇਆ ਸੀ। ਸਾਰਾਹ ਨੂੰ ਇਹ ਫੈਸਲਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ ਕਿ ਕੀ ਉਹ ਆਪਣੇ ਨਿਰਣੇ ‘ਤੇ ਭਰੋਸਾ ਕਰੇ ਜਾਂ ਮਸ਼ੀਨ ਦੀ ਡੇਟਾ-ਅਧਾਰਿਤ ਸਿਫਾਰਸ਼ ‘ਤੇ। ਜੇਕਰ ਉਹ AI ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦੀ ਹੈ ਅਤੇ ਕਰਮਚਾਰੀ ਬਾਅਦ ਵਿੱਚ ਅਸਫਲ ਹੋ ਜਾਂਦਾ ਹੈ, ਤਾਂ ਉਸਨੂੰ ਡੇਟਾ ਦੀ ਪਾਲਣਾ ਨਾ ਕਰਨ ਲਈ ਜ਼ਿੰਮੇਵਾਰ ਠਹਿਰਾਇਆ ਜਾ ਸਕਦਾ ਹੈ। ਇਹ ਐਲਗੋਰਿਦਮਿਕ ਪ੍ਰਬੰਧਨ ਦਾ ਚੁੱਪ ਦਬਾਅ ਹੈ।
ਦੁਪਹਿਰ ਨੂੰ, ਸਾਰਾਹ ਇੱਕ ਨਵੀਂ ਬੀਮਾ ਪਾਲਿਸੀ ਲਈ ਅਪਲਾਈ ਕਰਦੀ ਹੈ। ਬੀਮਾ ਕੰਪਨੀ ਉਸਦੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਅਤੇ ਸਿਹਤ ਰਿਕਾਰਡਾਂ ਨੂੰ ਸਕੈਨ ਕਰਨ ਲਈ ਇੱਕ ਆਟੋਮੇਟਿਡ ਸਿਸਟਮ ਦੀ ਵਰਤੋਂ ਕਰਦੀ ਹੈ। ਸਿਸਟਮ ਉਸਨੂੰ ਉੱਚ ਜੋਖਮ ਵਾਲੀ ਸ਼੍ਰੇਣੀ ਵਿੱਚ ਰੱਖਦਾ ਹੈ ਕਿਉਂਕਿ ਉਹ ਹਾਲ ਹੀ ਵਿੱਚ ਇੱਕ ਹਾਈਕਿੰਗ ਗਰੁੱਪ ਵਿੱਚ ਸ਼ਾਮਲ ਹੋਈ ਸੀ, ਜਿਸਨੂੰ ਐਲਗੋਰਿਦਮ ਸੰਭਾਵੀ ਸੱਟ ਨਾਲ ਜੋੜਦਾ ਹੈ। ਉੱਥੇ ਗੱਲ ਕਰਨ ਲਈ ਕੋਈ ਇਨਸਾਨ ਨਹੀਂ ਹੈ ਅਤੇ ਇਹ ਸਮਝਾਉਣ ਦਾ ਕੋਈ ਤਰੀਕਾ ਨਹੀਂ ਹੈ ਕਿ ਉਹ ਇੱਕ ਤਜਰਬੇਕਾਰ ਹਾਈਕਰ ਹੈ ਅਤੇ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸਿਹਤਮੰਦ ਹੈ। ਉਸਦਾ ਪ੍ਰੀਮੀਅਮ ਤੁਰੰਤ ਵੱਧ ਜਾਂਦਾ ਹੈ। ਇਹ ਇੱਕ ਅਜਿਹੇ ਸਿਸਟਮ ਦਾ ਅਸਲ-ਸੰਸਾਰ ਨਤੀਜਾ ਹੈ ਜੋ ਵਿਅਕਤੀਗਤ ਸੂਖਮਤਾ ਨਾਲੋਂ ਕੁਸ਼ਲਤਾ ਨੂੰ ਤਰਜੀਹ ਦਿੰਦਾ ਹੈ। ਸ਼ਾਮ ਤੱਕ, ਸਾਰਾਹ ਇੱਕ ਨਿਊਜ਼ ਸਾਈਟ ਬ੍ਰਾਊਜ਼ ਕਰ ਰਹੀ ਹੈ ਜਿੱਥੇ ਅੱਧੇ ਲੇਖ ਬੋਟਸ ਦੁਆਰਾ ਲਿਖੇ ਗਏ ਹਨ। ਉਸ ਲਈ ਇਹ ਦੱਸਣਾ ਮੁਸ਼ਕਿਲ ਹੁੰਦਾ ਜਾ ਰਿਹਾ ਹੈ ਕਿ ਕੀ ਇੱਕ ਰਿਪੋਰਟ ਕੀਤਾ ਗਿਆ ਤੱਥ ਹੈ ਅਤੇ ਕੀ ਇੱਕ ਸਿੰਥੇਸਾਈਜ਼ਡ ਸਾਰਾਂਸ਼ ਹੈ ਜੋ ਉਸਨੂੰ ਕਲਿੱਕ ਕਰਦੇ ਰਹਿਣ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। ਆਟੋਮੇਟਿਡ ਸਮੱਗਰੀ ਦੇ ਇਸ ਲਗਾਤਾਰ ਸੰਪਰਕ ਨਾਲ ਉਸਦਾ ਹਕੀਕਤ ਨੂੰ ਦੇਖਣ ਦਾ ਨਜ਼ਰੀਆ ਬਦਲ ਰਿਹਾ ਹੈ।
BotNews.today ਸਮੱਗਰੀ ਦੀ ਖੋਜ, ਲਿਖਣ, ਸੰਪਾਦਨ ਅਤੇ ਅਨੁਵਾਦ ਕਰਨ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਸਾਡੀ ਟੀਮ ਜਾਣਕਾਰੀ ਨੂੰ ਉਪਯੋਗੀ, ਸਪਸ਼ਟ ਅਤੇ ਭਰੋਸੇਮੰਦ ਰੱਖਣ ਲਈ ਪ੍ਰਕਿਰਿਆ ਦੀ ਸਮੀਖਿਆ ਅਤੇ ਨਿਗਰਾਨੀ ਕਰਦੀ ਹੈ।
ਕੁਸ਼ਲਤਾ ਦੀ ਕੀਮਤ
ਸਾਨੂੰ ਸਾਡੇ ਮੌਜੂਦਾ ਰਾਹ ਦੀਆਂ ਲੁਕੀਆਂ ਹੋਈਆਂ ਕੀਮਤਾਂ ਬਾਰੇ ਮੁਸ਼ਕਲ ਸਵਾਲ ਪੁੱਛਣੇ ਚਾਹੀਦੇ ਹਨ। ਜੇਕਰ ਇੱਕ AI ਸਿਸਟਮ ਇੱਕ ਕੰਪਨੀ ਦੇ ਲੱਖਾਂ ਡਾਲਰ ਬਚਾਉਂਦਾ ਹੈ ਪਰ ਹਜ਼ਾਰਾਂ ਨੌਕਰੀਆਂ ਦੇ ਨੁਕਸਾਨ ਦਾ ਕਾਰਨ ਬਣਦਾ ਹੈ, ਤਾਂ ਸਮਾਜਿਕ ਕੀਮਤ ਲਈ ਕੌਣ ਜ਼ਿੰਮੇਵਾਰ ਹੈ? ਅਸੀਂ ਅਕਸਰ ਤਕਨੀਕੀ ਤਰੱਕੀ ਨੂੰ ਕੁਦਰਤ ਦੀ ਇੱਕ ਅਟੱਲ ਸ਼ਕਤੀ ਵਜੋਂ ਮੰਨਦੇ ਹਾਂ, ਪਰ ਇਹ ਖਾਸ ਪ੍ਰੇਰਣਾਵਾਂ ਵਾਲੇ ਵਿਅਕਤੀਆਂ ਦੁਆਰਾ ਕੀਤੇ ਗਏ ਖਾਸ ਫੈਸਲਿਆਂ ਦਾ ਨਤੀਜਾ ਹੈ। ਅਸੀਂ ਲੇਬਰ ਮਾਰਕੀਟ ਦੀ ਸਥਿਰਤਾ ਨਾਲੋਂ ਮੁਨਾਫੇ ਦੇ ਅਨੁਕੂਲਨ ਨੂੰ ਤਰਜੀਹ ਕਿਉਂ ਦਿੰਦੇ ਹਾਂ? ਇੱਕ ਅਜਿਹੇ ਯੁੱਗ ਵਿੱਚ ਡੇਟਾ ਗੋਪਨੀਯਤਾ ਦਾ ਸਵਾਲ ਵੀ ਹੈ ਜਿੱਥੇ ਹਰ ਗੱਲਬਾਤ ਇੱਕ ਟ੍ਰੇਨਿੰਗ ਪੁਆਇੰਟ ਹੈ। ਜਦੋਂ ਤੁਸੀਂ ਇੱਕ ਮੁਫਤ AI ਅਸਿਸਟੈਂਟ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋ, ਤਾਂ ਤੁਸੀਂ ਗਾਹਕ ਨਹੀਂ ਹੋ; ਤੁਸੀਂ ਉਤਪਾਦ ਹੋ। ਤੁਹਾਡੀਆਂ ਗੱਲਾਂਬਾਤਾਂ ਅਤੇ ਤਰਜੀਹਾਂ ਦੀ ਵਰਤੋਂ ਇੱਕ ਅਜਿਹੇ ਮਾਡਲ ਨੂੰ ਸੁਧਾਰਨ ਲਈ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਜੋ ਅੰਤ ਵਿੱਚ ਤੁਹਾਨੂੰ ਜਾਂ ਤੁਹਾਡੇ ਮਾਲਕ ਨੂੰ ਵੇਚਿਆ ਜਾਵੇਗਾ। ਨਿੱਜੀ ਵਿਚਾਰਾਂ ਦੇ ਸੰਕਲਪ ਦਾ ਕੀ ਹੁੰਦਾ ਹੈ ਜਦੋਂ ਸਾਡੇ ਡਿਜੀਟਲ ਅਸਿਸਟੈਂਟ ਲਗਾਤਾਰ ਸੁਣ ਰਹੇ ਅਤੇ ਸਿੱਖ ਰਹੇ ਹੁੰਦੇ ਹਨ?
ਵਾਤਾਵਰਣ ‘ਤੇ ਪ੍ਰਭਾਵ ਇੱਕ ਹੋਰ ਕੀਮਤ ਹੈ ਜਿਸ ਬਾਰੇ ਮਾਰਕੀਟਿੰਗ ਸਮੱਗਰੀ ਵਿੱਚ ਸ਼ਾਇਦ ਹੀ ਚਰਚਾ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਇੱਕ ਵੱਡੇ ਮਾਡਲ ਨੂੰ ਟ੍ਰੇਨ ਕਰਨ ਵਿੱਚ ਓਨੀ ਬਿਜਲੀ ਖਪਤ ਹੋ ਸਕਦੀ ਹੈ ਜਿੰਨੀ ਸੈਂਕੜੇ ਘਰ ਇੱਕ ਸਾਲ ਵਿੱਚ ਵਰਤਦੇ ਹਨ। ਡੇਟਾ ਸੈਂਟਰਾਂ ਲਈ ਕੂਲਿੰਗ ਦੀਆਂ ਲੋੜਾਂ ਸੁੱਕੇ ਖੇਤਰਾਂ ਵਿੱਚ ਸਥਾਨਕ ਪਾਣੀ ਦੀ ਸਪਲਾਈ ‘ਤੇ ਦਬਾਅ ਪਾ ਰਹੀਆਂ ਹਨ। ਕੀ ਅਸੀਂ ਥੋੜ੍ਹੇ ਬਿਹਤਰ ਚੈਟਬੋਟ ਲਈ ਵਾਤਾਵਰਣਕ ਸਥਿਰਤਾ ਦਾ ਸੌਦਾ ਕਰਨ ਲਈ ਤਿਆਰ ਹਾਂ? ਸਾਨੂੰ ਮਨੁੱਖੀ ਬੋਧ (cognition) ‘ਤੇ ਲੰਬੇ ਸਮੇਂ ਦੇ ਪ੍ਰਭਾਵ ‘ਤੇ ਵੀ ਵਿਚਾਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ। ਜੇਕਰ ਅਸੀਂ ਆਪਣਾ ਲਿਖਣਾ, ਕੋਡਿੰਗ ਕਰਨਾ ਅਤੇ ਆਲੋਚਨਾਤਮਕ ਸੋਚ ਮਸ਼ੀਨਾਂ ਨੂੰ ਸੌਂਪ ਦਿੰਦੇ ਹਾਂ, ਤਾਂ ਮਨੁੱਖੀ ਆਬਾਦੀ ਵਿੱਚ ਉਨ੍ਹਾਂ ਹੁਨਰਾਂ ਦਾ ਕੀ ਹੋਵੇਗਾ? ਅਸੀਂ ਸ਼ਾਇਦ ਇੱਕ ਅਜਿਹੀ ਦੁਨੀਆ ਬਣਾ ਰਹੇ ਹਾਂ ਜੋ ਬਹੁਤ ਕੁਸ਼ਲ ਹੈ ਪਰ ਅਜਿਹੇ ਲੋਕਾਂ ਨਾਲ ਭਰੀ ਹੋਈ ਹੈ ਜੋ ਡਿਜੀਟਲ ਸਹਾਰੇ ਤੋਂ ਬਿਨਾਂ ਕੰਮ ਨਹੀਂ ਕਰ ਸਕਦੇ। ਇਹ ਵਧੇਰੇ ਡੇਟਾ ਨਾਲ ਹੱਲ ਕਰਨ ਵਾਲੀਆਂ ਤਕਨੀਕੀ ਸਮੱਸਿਆਵਾਂ ਨਹੀਂ ਹਨ। ਇਹ ਬੁਨਿਆਦੀ ਸਵਾਲ ਹਨ ਕਿ ਅਸੀਂ ਕਿਸ ਤਰ੍ਹਾਂ ਦੇ ਭਵਿੱਖ ਵਿੱਚ ਰਹਿਣਾ ਚਾਹੁੰਦੇ ਹਾਂ।
ਕੀ ਤੁਹਾਡੇ ਕੋਲ ਕੋਈ AI ਕਹਾਣੀ, ਟੂਲ, ਰੁਝਾਨ ਜਾਂ ਸਵਾਲ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਕਵਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਸਾਨੂੰ ਆਪਣਾ ਲੇਖ ਦਾ ਵਿਚਾਰ ਭੇਜੋ — ਅਸੀਂ ਇਸਨੂੰ ਸੁਣਨਾ ਪਸੰਦ ਕਰਾਂਗੇ।ਪ੍ਰਭਾਵ ਦਾ ਬੁਨਿਆਦੀ ਢਾਂਚਾ
ਪਾਵਰ ਯੂਜ਼ਰਾਂ ਅਤੇ ਡਿਵੈਲਪਰਾਂ ਲਈ, ਨੈਤਿਕ ਸਵਾਲ ਤਕਨੀਕੀ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਹਨ। ਸਥਾਨਕ ਸਟੋਰੇਜ ਅਤੇ ਐਜ ਕੰਪਿਊਟਿੰਗ ਵੱਲ ਵਧਣਾ ਕੁਝ ਹੱਦ ਤੱਕ ਗੋਪਨੀਯਤਾ ਦੀਆਂ ਚਿੰਤਾਵਾਂ ਦਾ ਜਵਾਬ ਹੈ। ਮਾਡਲਾਂ ਨੂੰ ਸਥਾਨਕ ਤੌਰ ‘ਤੇ ਚਲਾ ਕੇ, ਉਪਭੋਗਤਾ ਸੰਵੇਦਨਸ਼ੀਲ ਡੇਟਾ ਨੂੰ ਕੇਂਦਰੀ ਸਰਵਰ ‘ਤੇ ਭੇਜਣ ਤੋਂ ਬਚ ਸਕਦੇ ਹਨ। ਹਾਲਾਂਕਿ, ਇਹ ਹਾਰਡਵੇਅਰ ਲੋੜਾਂ ਅਤੇ API ਸੀਮਾਵਾਂ ਦੇ ਸੰਬੰਧ ਵਿੱਚ ਚੁਣੌਤੀਆਂ ਦਾ ਇੱਕ ਨਵਾਂ ਸੈੱਟ ਪੈਦਾ ਕਰਦਾ ਹੈ। ਜ਼ਿਆਦਾਤਰ ਉੱਚ-ਪ੍ਰਦਰਸ਼ਨ ਵਾਲੇ ਮਾਡਲਾਂ ਨੂੰ ਮਹੱਤਵਪੂਰਨ VRAM ਅਤੇ ਵਿਸ਼ੇਸ਼ ਚਿਪਸ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ ਜੋ ਵਰਤਮਾਨ ਵਿੱਚ ਘੱਟ ਸਪਲਾਈ ਵਿੱਚ ਹਨ। ਇਹ ਇੱਕ ਰੁਕਾਵਟ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜਿੱਥੇ ਸਿਰਫ ਨਵੀਨਤਮ ਹਾਰਡਵੇਅਰ ਵਾਲੇ ਲੋਕ ਹੀ ਸਭ ਤੋਂ ਸਮਰੱਥ ਟੂਲਸ ਤੱਕ ਪਹੁੰਚ ਕਰ ਸਕਦੇ ਹਨ। ਡਿਵੈਲਪਰ ਮੌਜੂਦਾ ਆਰਕੀਟੈਕਚਰ ਦੀਆਂ ਸੀਮਾਵਾਂ ਨਾਲ ਵੀ ਜੂਝ ਰਹੇ ਹਨ। ਹਾਲਾਂਕਿ ਟ੍ਰਾਂਸਫਾਰਮਰ ਮਾਡਲ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਰਹੇ ਹਨ, ਪਰ ਉਹਨਾਂ ਦੀ ਜਾਂਚ ਕਰਨਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਹੈ। ਅਸੀਂ ਵੇਟਸ ਅਤੇ ਆਰਕੀਟੈਕਚਰ ਦੇਖ ਸਕਦੇ ਹਾਂ, ਪਰ ਅਸੀਂ ਆਸਾਨੀ ਨਾਲ ਇਹ ਨਹੀਂ ਸਮਝਾ ਸਕਦੇ ਕਿ ਇੱਕ ਖਾਸ ਇਨਪੁਟ ਇੱਕ ਖਾਸ ਆਉਟਪੁੱਟ ਵੱਲ ਕਿਉਂ ਲੈ ਜਾਂਦਾ ਹੈ।
ਪੇਸ਼ੇਵਰ ਵਰਕਫਲੋ ਵਿੱਚ AI ਦਾ ਏਕੀਕਰਣ ਵੀ ਡੇਟਾ ਪੋਇਜ਼ਨਿੰਗ ਅਤੇ ਮਾਡਲ ਦੇ ਡਿੱਗਣ ਦੀ ਸਮੱਸਿਆ ਨਾਲ ਜੂਝ ਰਿਹਾ ਹੈ। ਜੇਕਰ ਇੰਟਰਨੈੱਟ AI-ਜਨਰੇਟਿਡ ਸਮੱਗਰੀ ਨਾਲ ਭਰ ਜਾਂਦਾ ਹੈ, ਤਾਂ ਭਵਿੱਖ ਦੇ ਮਾਡਲ ਆਪਣੇ ਪੂਰਵਜਾਂ ਦੇ ਆਉਟਪੁੱਟ ‘ਤੇ ਟ੍ਰੇਨ ਕੀਤੇ ਜਾਣਗੇ। ਇਸ ਨਾਲ ਗੁਣਵੱਤਾ ਵਿੱਚ ਗਿਰਾਵਟ ਅਤੇ ਗਲਤੀਆਂ ਵਿੱਚ ਵਾਧਾ ਹੁੰਦਾ ਹੈ। ਇਸਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ, ਕੁਝ ਡਿਵੈਲਪਰ ਪ੍ਰਮਾਣਿਤ ਡੇਟਾ ਸਰੋਤਾਂ ਅਤੇ ਵਾਟਰਮਾਰਕਿੰਗ ਤਕਨੀਕਾਂ ਵੱਲ ਦੇਖ ਰਹੇ ਹਨ। ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਜੋਖਮਾਂ ਨੂੰ ਸਮਝਣ ਵਿੱਚ ਮਦਦ ਕਰਨ ਲਈ ਵਧੇਰੇ ਪਾਰਦਰਸ਼ੀ AI ਨੈਤਿਕਤਾ ਵਿਸ਼ਲੇਸ਼ਣ ਲਈ ਵੀ ਜ਼ੋਰ ਦਿੱਤਾ ਜਾ ਰਿਹਾ ਹੈ। ਤਕਨੀਕੀ ਭਾਈਚਾਰਾ ਵਰਤਮਾਨ ਵਿੱਚ ਵਿਕਾਸ ਦੇ ਕਈ ਮੁੱਖ ਖੇਤਰਾਂ ‘ਤੇ ਕੇਂਦ੍ਰਿਤ ਹੈ:
- ਟ੍ਰੇਨਿੰਗ ਸੈੱਟਾਂ ਵਿੱਚ ਵਿਅਕਤੀਗਤ ਡੇਟਾ ਪੁਆਇੰਟਾਂ ਦੀ ਸੁਰੱਖਿਆ ਲਈ ਡਿਫਰੈਂਸ਼ੀਅਲ ਪ੍ਰਾਈਵੇਸੀ ਨੂੰ ਲਾਗੂ ਕਰਨਾ।
- ਛੋਟੇ, ਵਧੇਰੇ ਕੁਸ਼ਲ ਮਾਡਲਾਂ ਦਾ ਵਿਕਾਸ ਜੋ ਕੰਜ਼ਿਊਮਰ ਹਾਰਡਵੇਅਰ ‘ਤੇ ਚੱਲ ਸਕਦੇ ਹਨ।
- ਪੱਖਪਾਤ ਅਤੇ ਤੱਥਾਂ ਦੀਆਂ ਗਲਤੀਆਂ ਦਾ ਪਤਾ ਲਗਾਉਣ ਲਈ ਪ੍ਰਮਾਣਿਤ ਬੈਂਚਮਾਰਕ ਬਣਾਉਣਾ।
- ਕਈ ਵਿਕੇਂਦਰੀਕ੍ਰਿਤ ਡਿਵਾਈਸਾਂ ਵਿੱਚ ਮਾਡਲਾਂ ਨੂੰ ਟ੍ਰੇਨ ਕਰਨ ਲਈ ਫੈਡਰੇਟਿਡ ਲਰਨਿੰਗ ਦੀ ਵਰਤੋਂ।
- ਨਵੇਂ ਆਰਕੀਟੈਕਚਰ ਦੀ ਖੋਜ ਜੋ ਮਿਆਰੀ ਨਿਊਰਲ ਨੈੱਟਵਰਕਾਂ ਨਾਲੋਂ ਬਿਹਤਰ ਵਿਆਖਿਆਯੋਗਤਾ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ।
ਅੱਗੇ ਦਾ ਅਣਸੁਲਝਿਆ ਰਾਹ
ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦਾ ਤੇਜ਼ੀ ਨਾਲ ਵਿਕਾਸ ਇਸ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਨ ਦੀ ਸਾਡੀ ਯੋਗਤਾ ਤੋਂ ਅੱਗੇ ਨਿਕਲ ਗਿਆ ਹੈ। ਅਸੀਂ ਵਰਤਮਾਨ ਵਿੱਚ ਨਵੀਨਤਾ ਦੀ ਇੱਛਾ ਅਤੇ ਸੁਰੱਖਿਆ ਦੀ ਲੋੜ ਦੇ ਵਿਚਕਾਰ ਇੱਕ ਖੜੋਤ ਵਿੱਚ ਹਾਂ। ਸਭ ਤੋਂ ਵੱਡੇ ਨੈਤਿਕ ਸਵਾਲ ਮਸ਼ੀਨਾਂ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਬਾਰੇ ਨਹੀਂ, ਸਗੋਂ ਉਨ੍ਹਾਂ ਲੋਕਾਂ ਦੇ ਇਰਾਦਿਆਂ ਬਾਰੇ ਹਨ ਜੋ ਉਨ੍ਹਾਂ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਦੇ ਹਨ। ਜਿਵੇਂ-ਜਿਵੇਂ ਅਸੀਂ ਅੱਗੇ ਵਧ ਰਹੇ ਹਾਂ, ਧਿਆਨ ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਮਾਡਲਾਂ ਤੋਂ ਹਟ ਕੇ ਡੇਟਾ ਸਪਲਾਈ ਚੇਨ ਅਤੇ ਡਿਵੈਲਪਰਾਂ ਦੀ ਜਵਾਬਦੇਹੀ ਵੱਲ ਜਾਵੇਗਾ। ਸਾਡੇ ਕੋਲ ਇੱਕ ਅਜਿਹਾ ਜੀਵੰਤ ਸਵਾਲ ਹੈ ਜੋ ਅਗਲੇ ਦਹਾਕੇ ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਕਰੇਗਾ। ਕੀ ਅਸੀਂ ਇੱਕ ਅਜਿਹਾ ਸਿਸਟਮ ਬਣਾ ਸਕਦੇ ਹਾਂ ਜੋ ਸਾਡੀਆਂ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਹੱਲ ਕਰਨ ਲਈ ਕਾਫ਼ੀ ਸ਼ਕਤੀਸ਼ਾਲੀ ਹੋਵੇ ਅਤੇ ਭਰੋਸਾ ਕਰਨ ਲਈ ਕਾਫ਼ੀ ਪਾਰਦਰਸ਼ੀ ਹੋਵੇ? ਇਸਦਾ ਜਵਾਬ ਅਜੇ ਕੋਡ ਵਿੱਚ ਨਹੀਂ ਲਿਖਿਆ ਗਿਆ ਹੈ। ਇਹ ਅਦਾਲਤਾਂ, ਬੋਰਡਰੂਮਾਂ ਅਤੇ ਉਹਨਾਂ ਉਪਭੋਗਤਾਵਾਂ ਦੇ ਰੋਜ਼ਾਨਾ ਫੈਸਲਿਆਂ ਵਿੱਚ ਤੈਅ ਕੀਤਾ ਜਾਵੇਗਾ ਜਿਨ੍ਹਾਂ ਨੂੰ ਇਹ ਫੈਸਲਾ ਕਰਨਾ ਪਵੇਗਾ ਕਿ ਉਹ ਸਹੂਲਤ ਲਈ ਆਪਣੀ ਖੁਦਮੁਖਤਿਆਰੀ ਦਾ ਕਿੰਨਾ ਹਿੱਸਾ ਵਪਾਰ ਕਰਨ ਲਈ ਤਿਆਰ ਹਨ।
A szerkesztő megjegyzése: Ezt az oldalt többnyelvű AI hírek és útmutatók központjaként hoztuk létre olyan emberek számára, akik nem számítógépes zsenik, de mégis szeretnék megérteni a mesterséges intelligenciát, magabiztosabban használni, és követni a már megérkező jövőt.
ਕੋਈ ਗਲਤੀ ਮਿਲੀ ਜਾਂ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਲੋੜ ਹੈ? ਸਾਨੂੰ ਦੱਸੋ।