AI ਲਈ ਨਵਾਂ ਗਲੋਬਲ ਨਿਯਮਾਵਲੀ ਬਣਨਾ ਸ਼ੁਰੂ ਹੋ ਗਿਆ ਹੈ
ਬਿਨਾਂ ਇਜਾਜ਼ਤ ਇਨੋਵੇਸ਼ਨ ਦਾ ਅੰਤ
ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਵਿੱਚ ‘ਵਾਈਲਡ ਵੈਸਟ’ ਦਾ ਦੌਰ ਖਤਮ ਹੋ ਰਿਹਾ ਹੈ। ਸਾਲਾਂ ਤੱਕ, ਡਿਵੈਲਪਰਾਂ ਨੇ ਬਹੁਤ ਘੱਟ ਨਿਗਰਾਨੀ ਅਤੇ ਜਵਾਬਦੇਹੀ ਨਾਲ ਮਾਡਲ ਬਣਾਏ। ਹੁਣ, ਉਸ ਆਜ਼ਾਦੀ ਨੂੰ ਪਾਲਣਾ ਅਤੇ ਸੁਰੱਖਿਆ ਦੇ ਸਖ਼ਤ ਢਾਂਚੇ ਨਾਲ ਬਦਲਣ ਲਈ ਇੱਕ ਨਵੀਂ ਗਲੋਬਲ ਨਿਯਮਾਵਲੀ ਉਭਰ ਰਹੀ ਹੈ। ਇਹ ਸਿਰਫ਼ ਸੁਝਾਅ ਨਹੀਂ ਹਨ, ਸਗੋਂ ਇਹ ਭਾਰੀ ਜੁਰਮਾਨਿਆਂ ਅਤੇ ਮਾਰਕੀਟ ਤੋਂ ਬਾਹਰ ਕੀਤੇ ਜਾਣ ਦੇ ਡਰ ਨਾਲ ਸਮਰਥਿਤ ਸਖ਼ਤ ਕਾਨੂੰਨ ਹਨ। ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਆਪਣੇ ਵਿਆਪਕ AI Act ਨਾਲ ਅਗਵਾਈ ਕਰ ਰਹੀ ਹੈ, ਜਦੋਂ ਕਿ ਸੰਯੁਕਤ ਰਾਜ ਅਮਰੀਕਾ ਸਭ ਤੋਂ ਸ਼ਕਤੀਸ਼ਾਲੀ ਮਾਡਲਾਂ ਨੂੰ ਨਿਸ਼ਾਨਾ ਬਣਾਉਣ ਵਾਲੇ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ਾਂ ਨਾਲ ਅੱਗੇ ਵਧ ਰਿਹਾ ਹੈ। ਇਹ ਨਿਯਮ ਬਦਲ ਦੇਣਗੇ ਕਿ ਕੋਡ ਕਿਵੇਂ ਲਿਖਿਆ ਜਾਂਦਾ ਹੈ ਅਤੇ ਡੇਟਾ ਕਿਵੇਂ ਇਕੱਠਾ ਕੀਤਾ ਜਾਂਦਾ ਹੈ। ਇਹ ਬਦਲ ਦੇਣਗੇ ਕਿ ਇਸ ਮੁਕਾਬਲੇ ਵਾਲੇ ਖੇਤਰ ਵਿੱਚ ਕੌਣ ਟਿਕ ਸਕਦਾ ਹੈ। ਜੇਕਰ ਤੁਸੀਂ ਅਜਿਹਾ ਮਾਡਲ ਬਣਾਉਂਦੇ ਹੋ ਜੋ ਮਨੁੱਖੀ ਵਿਵਹਾਰ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਦਾ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਹੁਣ ਨਿਗਰਾਨੀ ਹੇਠ ਹੋ। ਇਹ ਤਬਦੀਲੀ ਉਦਯੋਗ ਦਾ ਧਿਆਨ ਰਫ਼ਤਾਰ ਤੋਂ ਹਟਾ ਕੇ ਸੁਰੱਖਿਆ ਵੱਲ ਲੈ ਜਾਂਦੀ ਹੈ। ਕੰਪਨੀਆਂ ਨੂੰ ਹੁਣ ਲਾਂਚ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ ਇਹ ਸਾਬਤ ਕਰਨਾ ਹੋਵੇਗਾ ਕਿ ਉਨ੍ਹਾਂ ਦੇ ਸਿਸਟਮ ਪੱਖਪਾਤੀ ਨਹੀਂ ਹਨ। ਇਹ ਦੁਨੀਆ ਦੀ ਹਰ ਟੈਕ ਫਰਮ ਲਈ ਨਵੀਂ ਹਕੀਕਤ ਹੈ।
ਕੋਡ ਵਿੱਚ ਜੋਖਮ ਦਾ ਵਰਗੀਕਰਨ
ਨਵੇਂ ਨਿਯਮਾਂ ਦਾ ਮੂਲ ਇੱਕ risk-based ਪਹੁੰਚ ਹੈ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਕਾਨੂੰਨ ਇੱਕ ਮਿਊਜ਼ਿਕ ਰਿਕਮੈਂਡੇਸ਼ਨ ਇੰਜਣ ਨਾਲ ਉਸੇ ਤਰ੍ਹਾਂ ਪੇਸ਼ ਨਹੀਂ ਆਉਂਦਾ ਜਿਵੇਂ ਕਿ ਮੈਡੀਕਲ ਡਾਇਗਨੌਸਟਿਕ ਟੂਲ ਜਾਂ ਸੈਲਫ-ਡਰਾਈਵਿੰਗ ਕਾਰ ਨਾਲ। ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਨੇ ਇਸ ਕਿਸਮ ਦੇ ਨਿਯਮ ਲਈ ਇੱਕ ਮਿਆਰ ਸਥਾਪਤ ਕੀਤਾ ਹੈ। ਉਹ AI ਨੂੰ ਸਮਾਜ ਨੂੰ ਹੋਣ ਵਾਲੇ ਸੰਭਾਵੀ ਨੁਕਸਾਨ ਦੇ ਆਧਾਰ ‘ਤੇ ਚਾਰ ਵੱਖ-ਵੱਖ ਸ਼੍ਰੇਣੀਆਂ ਵਿੱਚ ਵੰਡਦੇ ਹਨ। ਵਰਜਿਤ ਸਿਸਟਮ ਉਹ ਹਨ ਜੋ ਸਪੱਸ਼ਟ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਂਦੇ ਹਨ ਅਤੇ ਉਨ੍ਹਾਂ ‘ਤੇ ਪੂਰੀ ਤਰ੍ਹਾਂ ਪਾਬੰਦੀ ਹੈ। ਇਸ ਵਿੱਚ ਸੋਸ਼ਲ ਸਕੋਰਿੰਗ ਸਿਸਟਮ ਸ਼ਾਮਲ ਹਨ ਜੋ ਨਾਗਰਿਕਾਂ ਨੂੰ ਟਰੈਕ ਕਰਨ ਲਈ ਵਰਤੇ ਜਾਂਦੇ ਹਨ। ਉੱਚ-ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ ਉਹ ਹਨ ਜਿਨ੍ਹਾਂ ‘ਤੇ ਰੈਗੂਲੇਟਰਾਂ ਦੀ ਸਭ ਤੋਂ ਵੱਧ ਨਜ਼ਰ ਰਹੇਗੀ। ਇਹ ਨਾਜ਼ੁਕ ਬੁਨਿਆਦੀ ਢਾਂਚੇ, ਸਿੱਖਿਆ ਅਤੇ ਰੁਜ਼ਗਾਰ ਵਿੱਚ ਵਰਤੇ ਜਾਂਦੇ ਹਨ। ਜੇਕਰ ਕੋਈ AI ਇਹ ਫੈਸਲਾ ਕਰਦਾ ਹੈ ਕਿ ਕਿਸ ਨੂੰ ਨੌਕਰੀ ਮਿਲਦੀ ਹੈ ਜਾਂ ਕਿਸ ਨੂੰ ਲੋਨ ਮਿਲਦਾ ਹੈ, ਤਾਂ ਇਹ ਪਾਰਦਰਸ਼ੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ। ਇਸ ਵਿੱਚ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਅਤੇ ਉੱਚ ਪੱਧਰੀ ਸ਼ੁੱਧਤਾ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ। ਸੀਮਤ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ, ਜਿਵੇਂ ਕਿ ਚੈਟਬੋਟਸ, ਵਿੱਚ ਘੱਟ ਨਿਯਮ ਹਨ ਪਰ ਫਿਰ ਵੀ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਘੱਟੋ-ਘੱਟ ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮ, ਜਿਵੇਂ ਕਿ AI ਦੁਸ਼ਮਣਾਂ ਵਾਲੀਆਂ ਵੀਡੀਓ ਗੇਮਾਂ, ਨੂੰ ਜ਼ਿਆਦਾਤਰ ਇਕੱਲਾ ਛੱਡ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ। ਇਹ ਢਾਂਚਾ ਤਰੱਕੀ ਨੂੰ ਰੋਕੇ ਬਿਨਾਂ ਅਧਿਕਾਰਾਂ ਦੀ ਰੱਖਿਆ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। ਹਾਲਾਂਕਿ, ਇਹਨਾਂ ਸ਼੍ਰੇਣੀਆਂ ਦੀਆਂ ਪਰਿਭਾਸ਼ਾਵਾਂ ਅਜੇ ਵੀ ਅਦਾਲਤਾਂ ਵਿੱਚ ਬਹਿਸ ਦਾ ਵਿਸ਼ਾ ਹਨ।
ਯੂਰਪੀਅਨ ਸੰਸਦ ਨੇ EU AI Act ‘ਤੇ ਆਪਣੀ ਤਾਜ਼ਾ ਬ੍ਰੀਫਿੰਗ ਵਿੱਚ ਇਹਨਾਂ ਸ਼੍ਰੇਣੀਆਂ ਦਾ ਵੇਰਵਾ ਦਿੱਤਾ ਹੈ। ਇਹ ਦਸਤਾਵੇਜ਼ ਇਸ ਗੱਲ ਦਾ ਆਧਾਰ ਹੈ ਕਿ ਬਾਕੀ ਦੁਨੀਆ AI ਗਵਰਨੈਂਸ ਬਾਰੇ ਕਿਵੇਂ ਸੋਚ ਰਹੀ ਹੈ।
ਗਲੋਬਲ ਸਟੈਂਡਰਡਾਈਜ਼ੇਸ਼ਨ ਦੀ ਦੌੜ
ਇਹ ਨਿਯਮ ਸਿਰਫ਼ ਯੂਰਪ ਤੱਕ ਸੀਮਤ ਨਹੀਂ ਰਹਿ ਰਹੇ। ਅਸੀਂ ਰੀਅਲ ਟਾਈਮ ਵਿੱਚ *Brussels Effect* ਦਾ ਉਭਾਰ ਦੇਖ ਰਹੇ ਹਾਂ। ਜਦੋਂ ਇੱਕ ਵੱਡੀ ਮਾਰਕੀਟ ਨਿਯਮ ਤੈਅ ਕਰਦੀ ਹੈ, ਤਾਂ ਦੂਜਿਆਂ ਨੂੰ ਵੀ ਉਨ੍ਹਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨੀ ਪੈਂਦੀ ਹੈ। ਇੱਕ ਗਲੋਬਲ ਕੰਪਨੀ ਪੈਰਿਸ ਲਈ ਇੱਕ ਮਾਡਲ ਅਤੇ ਨਿਊਯਾਰਕ ਲਈ ਦੂਜਾ ਮਾਡਲ ਨਹੀਂ ਬਣਾਏਗੀ ਜੇਕਰ ਅਜਿਹਾ ਕਰਨ ਦੀ ਲਾਗਤ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹੈ। ਉਹ ਸਿਰਫ਼ ਸਭ ਤੋਂ ਸਖ਼ਤ ਮਿਆਰਾਂ ਅਨੁਸਾਰ ਹੀ ਬਣਾਉਣਗੇ। ਇਸੇ ਲਈ EU ਢਾਂਚਾ ਇੱਕ ਗਲੋਬਲ ਟੈਂਪਲੇਟ ਬਣ ਰਿਹਾ ਹੈ। ਬ੍ਰਾਜ਼ੀਲ ਅਤੇ ਕੈਨੇਡਾ ਪਹਿਲਾਂ ਹੀ ਅਜਿਹੇ ਕਾਨੂੰਨਾਂ ‘ਤੇ ਕੰਮ ਕਰ ਰਹੇ ਹਨ ਜੋ ਯੂਰਪੀਅਨ ਪਹੁੰਚ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ। ਇੱਥੋਂ ਤੱਕ ਕਿ ਸੰਯੁਕਤ ਰਾਜ ਅਮਰੀਕਾ, ਜੋ ਆਮ ਤੌਰ ‘ਤੇ ਇਨੋਵੇਸ਼ਨ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨ ਲਈ ਹਲਕੀ ਪਹੁੰਚ ਪਸੰਦ ਕਰਦਾ ਹੈ, ਵਧੇਰੇ ਨਿਯੰਤਰਣ ਵੱਲ ਵਧ ਰਿਹਾ ਹੈ। ਵ੍ਹਾਈਟ ਹਾਊਸ ਨੇ ਇੱਕ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ ਜਾਰੀ ਕੀਤਾ ਹੈ ਜਿਸ ਵਿੱਚ ਸ਼ਕਤੀਸ਼ਾਲੀ ਮਾਡਲਾਂ ਦੇ ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਸਰਕਾਰ ਨਾਲ ਆਪਣੇ ਸੁਰੱਖਿਆ ਟੈਸਟ ਦੇ ਨਤੀਜੇ ਸਾਂਝੇ ਕਰਨ ਦੀ ਲੋੜ ਹੈ। ਇਹ ਇੱਕ ਖੰਡਿਤ ਪਰ ਇੱਕਜੁੱਟ ਹੁੰਦੀ ਰੈਗੂਲੇਸ਼ਨ ਦੀ ਦੁਨੀਆ ਬਣਾਉਂਦਾ ਹੈ। ਕੰਪਨੀਆਂ ਨੂੰ ਹੁਣ ਨਵੇਂ ਨਿਯਮਾਂ ਨੂੰ ਪੜ੍ਹਨ ਲਈ ਵਕੀਲਾਂ ਦੀਆਂ ਟੀਮਾਂ ਰੱਖਣੀਆਂ ਪੈਣਗੀਆਂ। ਉੱਭਰਦੀਆਂ ਮਾਰਕੀਟਾਂ ਵਿੱਚ ਛੋਟੇ ਸਟਾਰਟਅੱਪਾਂ ਲਈ ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨਾ ਅਸੰਭਵ ਹੋ ਸਕਦਾ ਹੈ। ਇਹ ਇੱਕ ਉੱਚ-ਦਾਅ ਵਾਲੀ ਖੇਡ ਹੈ ਜਿੱਥੇ ਨਿਯਮ ਉਦੋਂ ਲਿਖੇ ਜਾ ਰਹੇ ਹਨ ਜਦੋਂ ਕਾਰਾਂ ਪਹਿਲਾਂ ਹੀ ਪੂਰੀ ਰਫ਼ਤਾਰ ਨਾਲ ਚੱਲ ਰਹੀਆਂ ਹਨ। AI ਸੁਰੱਖਿਆ ‘ਤੇ US Executive Order ਇੱਕ ਸਪੱਸ਼ਟ ਸੰਕੇਤ ਹੈ ਕਿ ਸਵੈ-ਨਿਯਮ ਦਾ ਦੌਰ ਖਤਮ ਹੋ ਗਿਆ ਹੈ।
ਕੀ ਤੁਹਾਡੇ ਕੋਲ ਕੋਈ AI ਕਹਾਣੀ, ਟੂਲ, ਰੁਝਾਨ ਜਾਂ ਸਵਾਲ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਕਵਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਸਾਨੂੰ ਆਪਣਾ ਲੇਖ ਦਾ ਵਿਚਾਰ ਭੇਜੋ — ਅਸੀਂ ਇਸਨੂੰ ਸੁਣਨਾ ਪਸੰਦ ਕਰਾਂਗੇ।
ਇੱਕ ਪਾਲਣਾ ਕਰਨ ਵਾਲੇ ਦਫਤਰ ਵਿੱਚ ਇੱਕ ਦਿਨ
ਕਲਪਨਾ ਕਰੋ ਕਿ ਐਲੇਕਸ ਨਾਮ ਦਾ ਇੱਕ ਪ੍ਰੋਡਕਟ ਮੈਨੇਜਰ ਹੈ। ਐਲੇਕਸ ਇੱਕ ਸਟਾਰਟਅੱਪ ਵਿੱਚ ਕੰਮ ਕਰਦਾ ਹੈ ਜੋ HR ਲਈ AI ਟੂਲ ਬਣਾਉਂਦਾ ਹੈ। ਨਵੇਂ ਨਿਯਮਾਂ ਤੋਂ ਪਹਿਲਾਂ, ਐਲੇਕਸ ਹਰ ਸ਼ੁੱਕਰਵਾਰ ਦੁਪਹਿਰ ਨੂੰ ਇੱਕ ਅਪਡੇਟ ਜਾਰੀ ਕਰਦਾ ਸੀ। ਹੁਣ, ਪ੍ਰਕਿਰਿਆ ਬਹੁਤ ਹੌਲੀ ਅਤੇ ਸੋਚੀ-ਸਮਝੀ ਹੈ। ਹਰ ਨਵੀਂ ਵਿਸ਼ੇਸ਼ਤਾ ਨੂੰ ਕੋਡ ਦੀ ਇੱਕ ਲਾਈਨ ਤੈਨਾਤ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ ਇੱਕ ਸਖ਼ਤ ਜੋਖਮ ਮੁਲਾਂਕਣ ਵਿੱਚੋਂ ਲੰਘਣਾ ਪੈਂਦਾ ਹੈ। ਐਲੇਕਸ ਨੂੰ ਸਿਖਲਾਈ ਡੇਟਾ ਦਾ ਦਸਤਾਵੇਜ਼ੀਕਰਨ ਕਰਨਾ ਪੈਂਦਾ ਹੈ ਅਤੇ ਇਹ ਦਿਖਾਉਣਾ ਹੁੰਦਾ ਹੈ ਕਿ ਇਹ ਸੁਰੱਖਿਅਤ ਸਮੂਹਾਂ ਦੇ ਵਿਰੁੱਧ ਵਿਤਕਰਾ ਨਹੀਂ ਕਰਦਾ ਹੈ। ਉਸਨੂੰ ਵਿਸਤ੍ਰਿਤ ਲੌਗ ਰੱਖਣੇ ਪੈਂਦੇ ਹਨ ਕਿ ਮਾਡਲ ਫੈਸਲੇ ਕਿਵੇਂ ਲੈਂਦਾ ਹੈ। ਇਹ ਵਿਕਾਸ ਚੱਕਰ ਵਿੱਚ ਹਫ਼ਤੇ ਜੋੜਦਾ ਹੈ। ਇੱਕ ਆਮ ਮੰਗਲਵਾਰ ਨੂੰ, ਐਲੇਕਸ ਕੋਡਿੰਗ ਨਹੀਂ ਕਰ ਰਿਹਾ ਹੁੰਦਾ। ਉਹ ਮਾਡਲ ਕਾਰਡਾਂ ਦੀ ਸਮੀਖਿਆ ਕਰਨ ਲਈ ਇੱਕ ਪਾਲਣਾ ਅਧਿਕਾਰੀ (compliance officer) ਨਾਲ ਮੀਟਿੰਗ ਕਰ ਰਿਹਾ ਹੁੰਦਾ ਹੈ। ਉਹ ਜਾਂਚ ਕਰ ਰਹੇ ਹਨ ਕਿ ਕੀ API ਲੌਗ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਡੇਟਾ ਰਿਟੈਨਸ਼ਨ ਦੇ ਨਵੇਂ ਮਾਪਦੰਡਾਂ ਨੂੰ ਪੂਰਾ ਕਰਦੇ ਹਨ। ਇਹ ਉਹ ਰਗੜ ਹੈ ਜੋ ਸੁਰੱਖਿਆ ਪੈਦਾ ਕਰਦੀ ਹੈ। ਉਪਭੋਗਤਾ ਲਈ, ਇਸਦਾ ਮਤਲਬ ਨਵੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦਾ ਹੌਲੀ ਰੋਲਆਊਟ ਹੋ ਸਕਦਾ ਹੈ। ਪਰ ਇਸਦਾ ਮਤਲਬ ਇਹ ਵੀ ਹੈ ਕਿ ਇੱਕ ਬਲੈਕ ਬਾਕਸ ਐਲਗੋਰਿਦਮ ਦੁਆਰਾ ਨੌਕਰੀ ਲਈ ਗਲਤ ਤਰੀਕੇ ਨਾਲ ਅਸਵੀਕਾਰ ਕੀਤੇ ਜਾਣ ਦੀ ਸੰਭਾਵਨਾ ਘੱਟ ਹੈ। ਲੋਕ ਅਕਸਰ ਇਹ ਅੰਦਾਜ਼ਾ ਲਗਾਉਂਦੇ ਹਨ ਕਿ ਇਹ ਨਿਯਮ ਇਨੋਵੇਸ਼ਨ ਨੂੰ ਕਿੰਨਾ ਰੋਕਣਗੇ। ਅਸਲ ਵਿੱਚ, ਇਹ ਸਿਰਫ਼ ਆਪਣੀ ਸ਼ਕਲ ਬਦਲੇਗਾ। ਲੋਕ ਇਨ੍ਹਾਂ ਕਾਨੂੰਨਾਂ ਦੀ ਗੁੰਝਲਤਾ ਨੂੰ ਵੀ ਘੱਟ ਸਮਝਦੇ ਹਨ। ਇਹ ਸਿਰਫ਼ ਪੱਖਪਾਤ ਤੋਂ ਬਚਣ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਡੇਟਾ ਪ੍ਰਭੂਸੱਤਾ ਅਤੇ ਊਰਜਾ ਦੀ ਵਰਤੋਂ ਬਾਰੇ ਹੈ। ਵਿਰੋਧਾਭਾਸ ਹਰ ਜਗ੍ਹਾ ਹਨ। ਅਸੀਂ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ AI ਤੇਜ਼ ਅਤੇ ਸ਼ਕਤੀਸ਼ਾਲੀ ਹੋਵੇ, ਪਰ ਅਸੀਂ ਇਹ ਵੀ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ ਇਹ ਹੌਲੀ ਅਤੇ ਸਾਵਧਾਨ ਹੋਵੇ। ਐਲੇਕਸ ਨੂੰ ਹਰ ਹਫ਼ਤੇ ਕਈ ਖਾਸ ਕੰਮ ਕਰਨੇ ਪੈਂਦੇ ਹਨ:
- ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਡੇਟਾ ਦੀ ਉਤਪਤੀ ਦੀ ਸਮੀਖਿਆ ਕਰਨਾ ਕਿ ਸਾਰੇ ਸਿਖਲਾਈ ਸੈੱਟ ਕਾਨੂੰਨੀ ਤੌਰ ‘ਤੇ ਪ੍ਰਾਪਤ ਕੀਤੇ ਗਏ ਹਨ।
- ਹਰ ਨਵੇਂ ਮਾਡਲ ਇਟਰੇਸ਼ਨ ‘ਤੇ ਪੱਖਪਾਤ ਖੋਜ ਸਕ੍ਰਿਪਟਾਂ ਚਲਾਉਣਾ।
- ਵੱਡੇ ਮਾਡਲਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਵਰਤੇ ਗਏ ਕੰਪਿਊਟ ਸਰੋਤਾਂ ਦਾ ਦਸਤਾਵੇਜ਼ੀਕਰਨ ਕਰਨਾ।
- ਲਾਜ਼ਮੀ AI ਖੁਲਾਸੇ ਸ਼ਾਮਲ ਕਰਨ ਲਈ ਯੂਜ਼ਰ ਇੰਟਰਫੇਸ ਨੂੰ ਅਪਡੇਟ ਕਰਨਾ।
- ਕੰਪਨੀ ਦੇ ਸੁਰੱਖਿਆ ਪ੍ਰੋਟੋਕੋਲ ਦੇ ਤੀਜੀ-ਧਿਰ ਆਡਿਟ ਦਾ ਪ੍ਰਬੰਧਨ ਕਰਨਾ।
ਦਿਨ ਦੇ ਅੰਤ ਤੱਕ, ਐਲੇਕਸ ਇਨ੍ਹਾਂ ਨਵੇਂ ਨਿਯਮਾਂ ਦਾ ਭਾਰ ਮਹਿਸੂਸ ਕਰਦਾ ਹੈ। ਉਹ ਜਾਣਦਾ ਹੈ ਕਿ ਉਹ ਨਿਰਪੱਖਤਾ ਲਈ ਮਹੱਤਵਪੂਰਨ ਹਨ। ਪਰ ਉਹ ਇਹ ਵੀ ਜਾਣਦਾ ਹੈ ਕਿ ਘੱਟ ਨਿਯਮਾਂ ਵਾਲੇ ਦੇਸ਼ਾਂ ਵਿੱਚ ਉਸਦੇ ਮੁਕਾਬਲੇਬਾਜ਼ ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧ ਰਹੇ ਹਨ। ਉਹ ਸੋਚਦਾ ਹੈ ਕਿ ਕੀ ਉਸਦਾ ਸਟਾਰਟਅੱਪ ਨੈਤਿਕ ਹੋਣ ਦੀ ਲਾਗਤ ਨੂੰ ਬਰਦਾਸ਼ਤ ਕਰ ਸਕਦਾ ਹੈ। ਇਹ ਹਜ਼ਾਰਾਂ ਡਿਵੈਲਪਰਾਂ ਲਈ ਹਕੀਕਤ ਹੈ। ਹੋਰ ਜਾਣਕਾਰੀ ਲਈ, ਸਾਡਾ ਨਵੀਨਤਮ AI ਨੀਤੀ ਵਿਸ਼ਲੇਸ਼ਣ ਦੇਖੋ।
BotNews.today ਸਮੱਗਰੀ ਦੀ ਖੋਜ, ਲਿਖਣ, ਸੰਪਾਦਨ ਅਤੇ ਅਨੁਵਾਦ ਕਰਨ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਸਾਡੀ ਟੀਮ ਜਾਣਕਾਰੀ ਨੂੰ ਉਪਯੋਗੀ, ਸਪਸ਼ਟ ਅਤੇ ਭਰੋਸੇਮੰਦ ਰੱਖਣ ਲਈ ਪ੍ਰਕਿਰਿਆ ਦੀ ਸਮੀਖਿਆ ਅਤੇ ਨਿਗਰਾਨੀ ਕਰਦੀ ਹੈ।
ਨਵੇਂ ਰੈਗੂਲੇਟਰਾਂ ਲਈ ਔਖੇ ਸਵਾਲ
ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਤੋਂ ਅਸਲ ਵਿੱਚ ਕਿਸ ਨੂੰ ਫਾਇਦਾ ਹੁੰਦਾ ਹੈ? ਕੀ ਇਹ ਜਨਤਾ ਹੈ, ਜਾਂ ਇਹ ਵੱਡੀਆਂ ਟੈਕ ਕੰਪਨੀਆਂ ਹਨ ਜੋ ਕਾਨੂੰਨੀ ਫੀਸਾਂ ਦਾ ਖਰਚਾ ਉਠਾ ਸਕਦੀਆਂ ਹਨ? ਜੇਕਰ ਕਿਸੇ ਸਟਾਰਟਅੱਪ ਨੂੰ ਆਪਣੇ ਸੀਡ ਰਾਉਂਡ ਦਾ ਅੱਧਾ ਹਿੱਸਾ ਪਾਲਣਾ ‘ਤੇ ਖਰਚ ਕਰਨਾ ਪੈਂਦਾ ਹੈ, ਤਾਂ ਕੀ ਇਹ ਮੁਕਾਬਲੇ ਨੂੰ ਖਤਮ ਕਰ ਦਿੰਦਾ ਹੈ? ਸਾਨੂੰ ਗੋਪਨੀਯਤਾ ਦੀਆਂ ਲੁਕੀਆਂ ਹੋਈਆਂ ਲਾਗਤਾਂ ਬਾਰੇ ਵੀ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ। ਜੇਕਰ ਹਰ ਮਾਡਲ ਦਾ ਆਡਿਟ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ, ਤਾਂ ਆਡਿਟ ਕੌਣ ਕਰਦਾ ਹੈ? ਕੀ ਅਸੀਂ ਕਿਸੇ ਸਰਕਾਰੀ ਏਜੰਸੀ ‘ਤੇ ਭਰੋਸਾ ਕਰਦੇ ਹਾਂ ਕਿ ਉਸ ਕੋਲ ਹਰ ਵੱਡੇ AI ਦੇ ਅੰਦਰੂਨੀ ਕੰਮਕਾਜ ਤੱਕ ਪਹੁੰਚ ਹੋਵੇ? ਗਲੋਬਲ ਅਸਮਾਨਤਾ ਦਾ ਸਵਾਲ ਵੀ ਹੈ। ਜੇਕਰ ਪੱਛਮ ਨਿਯਮ ਤੈਅ ਕਰਦਾ ਹੈ, ਤਾਂ ਗਲੋਬਲ ਸਾਊਥ ਦਾ ਕੀ ਹੋਵੇਗਾ? ਕੀ ਉਨ੍ਹਾਂ ਨੂੰ ਅਜਿਹੇ ਮਾਪਦੰਡ ਅਪਣਾਉਣ ਲਈ ਮਜਬੂਰ ਕੀਤਾ ਜਾਵੇਗਾ ਜੋ ਉਨ੍ਹਾਂ ਦੀਆਂ ਸਥਾਨਕ ਲੋੜਾਂ ਦੇ ਅਨੁਕੂਲ ਨਹੀਂ ਹਨ? ਸਾਨੂੰ ਦੱਸਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਇਹ ਨਿਯਮ ਸਾਨੂੰ ਸੁਰੱਖਿਅਤ ਬਣਾਉਂਦੇ ਹਨ, ਪਰ ਕੀ ਉਹ ਅਸਲ ਵਿੱਚ ਅਜਿਹਾ ਕਰਦੇ ਹਨ? ਜਾਂ ਕੀ ਉਹ ਸਿਰਫ਼ ਸੁਰੱਖਿਆ ਦਾ ਇੱਕ ਝੂਠਾ ਅਹਿਸਾਸ ਪੈਦਾ ਕਰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਅਸਲ ਜੋਖਮ ਡਾਰਕ ਵੈੱਬ ਦੇ ਅਨਿਯੰਤ੍ਰਿਤ ਹਿੱਸਿਆਂ ਵਿੱਚ ਚਲੇ ਜਾਂਦੇ ਹਨ? ਸਾਨੂੰ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਕੀ ਲਿਖਿਆ ਗਿਆ ਕਾਨੂੰਨ ਉਸ ਤਕਨਾਲੋਜੀ ਨਾਲ ਤਾਲਮੇਲ ਰੱਖ ਸਕਦਾ ਹੈ ਜੋ ਹਰ ਮਹੀਨੇ ਬਦਲਦੀ ਹੈ। United Nations AI Advisory Body ਇਨ੍ਹਾਂ ਗਲੋਬਲ ਪਾੜਿਆਂ ਨੂੰ ਹੱਲ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਿਹਾ ਹੈ, ਪਰ ਸਹਿਮਤੀ ਲੱਭਣਾ ਔਖਾ ਹੈ।
ਪਾਲਣਾ ਦਾ ਤਕਨੀਕੀ ਢਾਂਚਾ
ਪਾਵਰ ਯੂਜ਼ਰਾਂ ਅਤੇ ਡਿਵੈਲਪਰਾਂ ਲਈ, ਨਿਯਮ ਬਹੁਤ ਖਾਸ ਹੋ ਜਾਂਦੇ ਹਨ। ਅਮਰੀਕੀ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ ਜੋਖਮ ਲਈ ਇੱਕ ਪ੍ਰੌਕਸੀ ਵਜੋਂ ਕੰਪਿਊਟ ਪਾਵਰ ‘ਤੇ ਕੇਂਦ੍ਰਤ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਕੋਈ ਮਾਡਲ 10^26 ਫਲੋਟਿੰਗ ਪੁਆਇੰਟ ਓਪਰੇਸ਼ਨਾਂ ਤੋਂ ਵੱਧ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਕਰਦਾ ਹੈ, ਤਾਂ ਇਹ ਇੱਕ ਲਾਜ਼ਮੀ ਰਿਪੋਰਟਿੰਗ ਲੋੜ ਨੂੰ ਚਾਲੂ ਕਰਦਾ ਹੈ। ਇਹ ਕੰਪਿਊਟ ਦੀ ਇੱਕ ਵਿਸ਼ਾਲ ਮਾਤਰਾ ਹੈ, ਪਰ ਜਿਵੇਂ-ਜਿਵੇਂ ਹਾਰਡਵੇਅਰ ਬਿਹਤਰ ਹੁੰਦਾ ਹੈ, ਹੋਰ ਮਾਡਲ ਇਸ ਸੀਮਾ ਤੱਕ ਪਹੁੰਚ ਜਾਣਗੇ। ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਡੇਟਾ ਦੀ ਉਤਪਤੀ ਬਾਰੇ ਵੀ ਚਿੰਤਾ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ। ਤੁਸੀਂ ਹੁਣ ਸਿਰਫ਼ ਇੰਟਰਨੈਟ ਨੂੰ ਸਕ੍ਰੈਪ ਨਹੀਂ ਕਰ ਸਕਦੇ ਅਤੇ ਸਭ ਤੋਂ ਵਧੀਆ ਦੀ ਉਮੀਦ ਨਹੀਂ ਕਰ ਸਕਦੇ। ਤੁਹਾਨੂੰ ਇਹ ਸਾਬਤ ਕਰਨ ਦੀ ਲੋੜ ਹੈ ਕਿ ਤੁਹਾਡੇ ਕੋਲ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦਾ ਅਧਿਕਾਰ ਹੈ। ਰੈੱਡ-ਟੀਮਿੰਗ ਲਈ ਵੀ ਨਵੇਂ ਮਾਪਦੰਡ ਹਨ। ਇਹ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ ਤੁਸੀਂ ਆਪਣੇ AI ਨੂੰ ਤੋੜਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਨ ਲਈ ਲੋਕਾਂ ਨੂੰ ਨਿਯੁਕਤ ਕਰਦੇ ਹੋ। ਇਹਨਾਂ ਟੈਸਟਾਂ ਦੇ ਨਤੀਜਿਆਂ ਨੂੰ ਹੁਣ ਦਸਤਾਵੇਜ਼ੀ ਰੂਪ ਵਿੱਚ ਦਰਜ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਕੁਝ ਅਧਿਕਾਰ ਖੇਤਰਾਂ ਵਿੱਚ ਰੈਗੂਲੇਟਰਾਂ ਨਾਲ ਸਾਂਝਾ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। API ਪ੍ਰਦਾਤਾਵਾਂ ਨੂੰ ਵੀ ਨਵੀਆਂ ਸੀਮਾਵਾਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈ ਰਿਹਾ ਹੈ। ਉਨ੍ਹਾਂ ਨੂੰ ਗਲਤ ਹੱਥਾਂ ਵਿੱਚ ਜਾਣ ਤੋਂ ਰੋਕਣ ਲਈ ਆਪਣੇ ਗਾਹਕਾਂ ਦੀ ਪਛਾਣ ਦੀ ਪੁਸ਼ਟੀ ਕਰਨ ਦੀ ਲੋੜ ਹੋ ਸਕਦੀ ਹੈ। ਮਾਡਲਾਂ ਦੀ ਸਥਾਨਕ ਸਟੋਰੇਜ ਚਿੰਤਾ ਦਾ ਇੱਕ ਹੋਰ ਖੇਤਰ ਹੈ। ਜੇਕਰ ਕੋਈ ਮਾਡਲ ਲੈਪਟਾਪ ‘ਤੇ ਚੱਲਣ ਲਈ ਕਾਫ਼ੀ ਛੋਟਾ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਇਨ੍ਹਾਂ ਨਿਯਮਾਂ ਨੂੰ ਕਿਵੇਂ ਲਾਗੂ ਕਰਦੇ ਹੋ? ਜਵਾਬ ਅਕਸਰ ਹਾਰਡਵੇਅਰ-ਪੱਧਰ ਦੀਆਂ ਪਾਬੰਦੀਆਂ ਜਾਂ AI-ਉਤਪੰਨ ਸਮੱਗਰੀ ਦੀ ਲਾਜ਼ਮੀ ਵਾਟਰਮਾਰਕਿੰਗ ਦੁਆਰਾ ਹੁੰਦਾ ਹੈ।
- ਸਾਰੇ ਮਾਡਲ ਸਿਖਲਾਈ ਸੈਸ਼ਨਾਂ ਲਈ ਮਜ਼ਬੂਤ ਲੌਗਿੰਗ ਲਾਗੂ ਕਰਨਾ।
- ਟੈਕਸਟ ਅਤੇ ਚਿੱਤਰ ਆਉਟਪੁੱਟ ਨੂੰ ਵਾਟਰਮਾਰਕ ਕਰਨ ਲਈ ਸਵੈਚਲਿਤ ਟੂਲ ਵਿਕਸਿਤ ਕਰਨਾ।
- ਤੀਜੀ-ਧਿਰ ਮਾਡਲ ਆਡਿਟ ਲਈ ਸੁਰੱਖਿਅਤ ਵਾਤਾਵਰਣ ਸਥਾਪਤ ਕਰਨਾ।
- ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਕਿ API ਰੇਟ ਸੀਮਾਵਾਂ ਸੁਰੱਖਿਆ ਫਿਲਟਰਾਂ ਨੂੰ ਬਾਈਪਾਸ ਨਾ ਕਰਨ।
- ਸਾਰੇ ਮਨੁੱਖੀ-ਇਨ-ਦ-ਲੂਪ ਦਖਲਅੰਦਾਜ਼ੀ ਦੇ ਵਿਸਤ੍ਰਿਤ ਰਿਕਾਰਡ ਰੱਖਣਾ।
ਇਹ ਲੋੜਾਂ ਇੱਕ ਡਿਵੈਲਪਰ ਦੇ ਵਰਕਫਲੋ ਨੂੰ ਬਦਲਦੀਆਂ ਹਨ। ਇਹ ਹੁਣ ਸਿਰਫ਼ ਸ਼ੁੱਧਤਾ ਜਾਂ ਗਤੀ ਲਈ ਅਨੁਕੂਲਿਤ ਕਰਨ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਇੱਕ ਅਜਿਹਾ ਸਿਸਟਮ ਬਣਾਉਣ ਬਾਰੇ ਹੈ ਜੋ ਸ਼ੁਰੂ ਤੋਂ ਹੀ ਆਡਿਟ ਕਰਨ ਯੋਗ ਹੋਵੇ।
ਅਧੂਰਾ ਢਾਂਚਾ
ਸਿੱਟਾ ਇਹ ਹੈ ਕਿ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਲਈ ‘ਤੇਜ਼ੀ ਨਾਲ ਅੱਗੇ ਵਧੋ ਅਤੇ ਚੀਜ਼ਾਂ ਤੋੜੋ’ ਦਾ ਦੌਰ ਖਤਮ ਹੋ ਗਿਆ ਹੈ। ਅਸੀਂ ‘ਸਾਵਧਾਨੀ ਨਾਲ ਅੱਗੇ ਵਧੋ ਅਤੇ ਹਰ ਚੀਜ਼ ਦਾ ਦਸਤਾਵੇਜ਼ੀਕਰਨ ਕਰੋ’ ਦੇ ਦੌਰ ਵਿੱਚ ਜਾ ਰਹੇ ਹਾਂ। ਨਿਯਮ ਅਜੇ ਵੀ ਲਿਖੇ ਜਾ ਰਹੇ ਹਨ, ਅਤੇ ਉਹ ਸੰਪੂਰਨ ਹੋਣ ਤੋਂ ਬਹੁਤ ਦੂਰ ਹਨ। ਉਹ ਸੁਰੱਖਿਆ, ਮੁਨਾਫੇ ਅਤੇ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਵਿਚਕਾਰ ਇੱਕ ਗੜਬੜ ਵਾਲਾ ਸਮਝੌਤਾ ਹਨ। ਇੱਕ ਵੱਡਾ ਸਵਾਲ ਖੁੱਲ੍ਹਾ ਹੈ: ਕੀ ਇੱਕ ਕੇਂਦਰੀਕ੍ਰਿਤ ਕਾਨੂੰਨ ਕਦੇ ਵੀ ਇੱਕ ਵਿਕੇਂਦਰੀਕ੍ਰਿਤ ਤਕਨਾਲੋਜੀ ਨੂੰ ਸੱਚਮੁੱਚ ਨਿਯੰਤਰਿਤ ਕਰ ਸਕਦਾ ਹੈ? ਜਿਵੇਂ-ਜਿਵੇਂ ਓਪਨ-ਸੋਰਸ ਮਾਡਲ ਸੁਧਰਦੇ ਰਹਿੰਦੇ ਹਨ, ਜੋ ਨਿਯੰਤ੍ਰਿਤ ਹੈ ਅਤੇ ਜੋ ਸੰਭਵ ਹੈ, ਉਸ ਵਿਚਕਾਰ ਪਾੜਾ ਵਧਦਾ ਜਾਵੇਗਾ। ਇਹ ਕਹਾਣੀ ਦਾ ਅੰਤ ਨਹੀਂ ਹੈ। ਇਹ ਸਿਰਫ਼ ਸ਼ੁਰੂਆਤ ਦਾ ਅੰਤ ਹੈ। ਨਿਯਮਾਵਲੀ ਬਣਨਾ ਸ਼ੁਰੂ ਹੋ ਗਈ ਹੈ, ਪਰ ਸਿਆਹੀ ਅਜੇ ਵੀ ਗਿੱਲੀ ਹੈ। ਅਸੀਂ ਦੇਖਾਂਗੇ ਕਿ ਆਉਣ ਵਾਲੇ ਮਹੀਨਿਆਂ ਵਿੱਚ ਇਹ ਕਾਨੂੰਨ ਕਿਵੇਂ ਲਾਗੂ ਹੁੰਦੇ ਹਨ ਅਤੇ ਉਦਯੋਗ ਕਿਵੇਂ ਅਨੁਕੂਲ ਹੁੰਦਾ ਹੈ। ਇੱਕੋ ਇੱਕ ਨਿਸ਼ਚਿਤਤਾ ਇਹ ਹੈ ਕਿ ਅਸੀਂ AI ਨੂੰ ਕਿਵੇਂ ਬਣਾਉਂਦੇ ਅਤੇ ਵਰਤਦੇ ਹਾਂ, ਉਹ ਕਦੇ ਵੀ ਪਹਿਲਾਂ ਵਰਗਾ ਨਹੀਂ ਰਹੇਗਾ।
Paalala ng Editor: Ginawa namin ang site na ito bilang isang multilingual AI news at guides hub para sa mga taong hindi computer geeks, ngunit nais pa ring maunawaan ang artificial intelligence, gamitin ito nang may higit na kumpiyansa, at sundan ang hinaharap na dumarating na.
ਕੋਈ ਗਲਤੀ ਮਿਲੀ ਜਾਂ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਲੋੜ ਹੈ? ਸਾਨੂੰ ਦੱਸੋ।